در اتاقی پر از صفحهنمایش و نقشههای دیجیتال، تحلیلگران نظامی به نقطههای نورانی روی تصویر ماهوارهای خیره میشوند. هر نقطه میتواند یک خودرو، یک انبار مهمات یا فقط سایه یک ساختمان باشد. تشخیص تفاوت، زمانی ساعتها طول میکشید. حالا یک الگوریتم در چند ثانیه تشخیص میدهد کدام هدف مهمتر است. همین ابزارهای تازه، آرامآرام شکل جنگ را تغییر میدهند.
به گزارش زومان به نقل از نیچر، در هفتههای اخیر، با بالا گرفتن تنش میان ایالات متحده، اسرائیل و ایران، نگاهها بیش از همیشه به نقش هوش مصنوعی در میدان نبرد دوخته شده است. اما درست در لحظهای حساس، واشنگتن تصمیمی غیرمنتظره گرفت.
تنها یک روز پیش از حمله ۲۸ فوریه، دولت آمریکا همکاری با یکی از مهمترین تأمینکنندگان فناوری هوش مصنوعی خود را متوقف کرد. تصمیمی که اختلافی عمیق را آشکار کرد: این فناوری تا کجا باید در جنگ پیش برود؟
در ارتش آمریکا، یکی از ابزارهای کلیدی، سیستمی به نام Maven است. این سامانه با کمک هوش مصنوعی تصاویر ماهوارهای و ویدئوهای پهپادها را بررسی میکند. کار آن ساده به نظر میرسد:
پیدا کردن چیزهای مهم در میان میلیونها تصویر. اما پشت این کار ساده، تصمیمهای بزرگی پنهان است. سیستم میتواند اهداف احتمالی را پیشنهاد دهد و آنها را اولویتبندی کند؛ یعنی بگوید کدام نقطه روی نقشه ارزش توجه فوری دارد.
مایکل هوروویتز، دانشمند علوم سیاسی در دانشگاه پنسیلوانیا، توضیح میدهد که چنین ابزارهایی بیشتر در تحلیل اطلاعات، پشتیبانی لجستیکی و کمک به تصمیمگیری به کار میروند. (لجستیک یعنی رساندن تجهیزات، سوخت و نیروها به زمان و مکان درست.)
گزارشهایی از واشنگتنپست و رسانههای دیگر نشان میدهد این سامانه در درگیریهای گذشته و حتی در حملات اخیر نیز استفاده شده است. جزئیات دقیق اما همچنان محرمانه باقی ماندهاند.
در نگاه اول، فناوری هوشمند میتواند جنگ را «دقیقتر» کند. هدف دقیقتر یعنی احتمال کمتر برای برخورد با خانهها یا مردم عادی. اما واقعیت میدان جنگ پیچیدهتر از این وعدههاست.
در درگیریهای اوکراین و غزه، الگوریتمها برای شناسایی اهداف و هدایت پهپادها به کار رفتهاند. با این حال، تلفات غیرنظامیان همچنان بالا بوده است.
کریگ جونز، پژوهشگر هدفگیری نظامی در دانشگاه نیوکاسل بریتانیا، معتقد است شواهدی وجود ندارد که نشان دهد این فناوری مرگ غیرنظامیان را کاهش داده است.
او هشدار میدهد: «حتی ممکن است نتیجه برعکس باشد.»
بخش جنجالی ماجرا به سلاحهای کاملاً خودمختار مربوط میشود. یعنی سامانهای که خودش هدف را پیدا کند و شلیک را انجام دهد. بدون تصمیم مستقیم انسان.
قوانین بشردوستانه بینالمللی—قواعدی برای کاهش آسیب به غیرنظامیان—میگویند چنین سلاحی باید بتواند میان هدف نظامی و مردم عادی تفاوت بگذارد.
به گفته هوروویتز، مدلهای زبانی بزرگ یا LLMها—نوعی هوش مصنوعی که متن و داده را تحلیل میکند—هنوز برای چنین تصمیمهایی قابل اعتماد نیستند.
ریشه بحران اخیر به اختلاف میان وزارت دفاع آمریکا و شرکت Anthropic برمیگردد؛ یک استارتاپ بزرگ هوش مصنوعی در سانفرانسیسکو.
از سال ۲۰۲۴، مدل زبانی این شرکت به نام Claude بخشی از سامانه Maven را پشتیبانی میکرد. قرارداد آن حدود ۲۰۰ میلیون دلار ارزش داشت.
اما در ژانویه، پنتاگون یادداشتی منتشر کرد که میگفت «هر کاربرد قانونی» باید در دسترس دولت باشد.
Anthropic مخالفت کرد. مدیران شرکت اعلام کردند مدل آنها نباید برای نظارت گسترده داخلی یا هدایت سلاحهای کاملاً خودمختار استفاده شود. نظارت گسترده یعنی رصد همزمان میلیونها نفر. تنش بالا گرفت. سرانجام در ۲۷ فوریه، دونالد ترامپ دستور داد استفاده دولت از فناوری این شرکت متوقف شود. هوروویتز میگوید ماجرا از اختلاف نظری آغاز شد، اما ناگهان پیامدهای واقعی پیدا کرد.
پس از کنار گذاشتن Anthropic، واشنگتن به سراغ OpenAI رفت و قراردادی تازه امضا کرد.
این شرکت اعلام کرده فناوریاش برای نظارت داخلی یا هدایت سلاحهای کاملاً خودکار به کار نخواهد رفت.
با این حال، گزارشها نشان میدهد داریو آمودی، مدیرعامل Anthropic، از ۵ مارس دوباره گفتوگو با پنتاگون را آغاز کرده است.
همزمان، نگرانی در میان پژوهشگران فناوری بالا گرفته است. کارکنان گوگل و OpenAI طوماری منتشر کردهاند که از شرکتها میخواهد اجازه ندهند مدلهایشان برای کشتن خودکار انسانها بدون نظارت انسانی استفاده شود.
در ژنو، گروهی از دیپلماتها و دانشگاهیان این هفته دور یک میز جمع شدهاند. موضوع بحث آنها آینده سلاحهای هوشمند است. این گفتوگوها زیر چتر کنوانسیون سلاحهای متعارف خاص (CCW) انجام میشود؛ توافقی بینالمللی درباره محدود کردن برخی جنگافزارها.
اما رسیدن به توافق آسان نیست. کریگ جونز یادآوری میکند کشورهایی که برنامههای فعال در این حوزه دارند—از جمله آمریکا، اسرائیل و چین—معمولاً با مقررات سختتر مخالفت میکنند.
هربرت لین، متخصص امنیت سایبری دانشگاه استنفورد، مشکل را حتی بنیادیتر میداند. او توضیح میدهد: امروز هوش مصنوعی در بسیاری از سامانههای رایانهای حضور دارد. جدا کردن آن از بقیه فناوریها کار سادهای نیست. به بیان دیگر، جهان هنوز حتی به تعریف دقیق «سلاح خودمختار مبتنی بر هوش مصنوعی» هم نرسیده است. و تا وقتی تعریف روشنی وجود نداشته باشد، قانون هم درباره استفاده از آن به سختی شکل میگیرد. به گفته لین، جهان هنوز «حتی نزدیک» به یک توافق رسمی درباره استفاده قانونی از هوش مصنوعی در جنگ هم نیست.