اگر هوش مصنوعی به سلاح جنگی تبدیل شود، چه کسی آن را کنترل خواهد کرد؟
به دنبال فشار پنتاگون به شرکتهای هوش مصنوعی در ارائه فناوریهای خود برای کمک به این سازمان، این پرسش مطرح میشود که با تبدیل شدن هوش مصنوعی به سلاح جنگی، چه کسی قرار است آن را کنترل کند.
در دو روز گذشته نقش هوش مصنوعی در حمله آمریکا به ایران بسیار پررنگ شده، اما باید دید نقش هوش مصنوعی در چنین اتفاقاتی تا چه اندازه مؤثر است و اگر هوش مصنوعی واقعا به یک سلاح تبدیل شده، راه کنترل آن چیست.
فرض کنید که جان خود را در یک فاجعه وحشتناک مرتبط با هوش مصنوعی از دست بدهید. آیا با دانستن این موضوع که مسیر نابودی توسط غرور اربابان فناوری سیلیکون ولی در رسیدن به رؤیاهای آرمانشهر و جاودانگی هموار شده یا این که حماقت مقامات پنتاگون در دادن قدرت سرنوشتساز به هوش مصنوعی به امید رقابت با روسیه و چین در این میان نقش داشته است، احساس بدتری خواهید داشت؟
«راس دوتهات»(Ross Douthat)، نویسنده نیویورک تایمز نوشت: ما دوران جنگ سرد را با نگرانی بسیار درباره حماقتهای نظامی گذراندیم و هوش مصنوعی حتی در آن زمان نیز به اضطرابهای ما وارد شد.
ماشین آخرالزمانی در فیلم «دکتر استرنجلاو»(Dr. Strangelove)، ابررایانه در فیلم «بازیهای جنگی»(WarGames) و تصمیم سرنوشتساز در فیلم «ترمیناتور»(Terminator) برای عملیاتی کردن شبکه «اسکاینت»(Skynet) مواردی از انعکاس این موضوع بودند، اما در چند سال گذشته، همزمان با پیشرفتهای هوش مصنوعی در قرار دادن قدرت خارقالعاده در دستان چند شرکت و مدیران آنها که روی فرهنگ رؤیاهای علمی-تخیلی و ترسهای آخرالزمانی متمرکز شدهاند، نگرانی بیشتری درباره قدرتطلبی و جاهطلبی خصوصی شکل گرفته است.
اوج این نگرانی زمانی بود که برخوردهایی میان وزارت دفاع آمریکا و شرکت «آنتروپیک» (Anthropic) بر سر به کار گرفتن هوش مصنوعی در اهداف این سازمان شکل گرفت. بحث بر سر این بود که مدلهای هوش مصنوعی آنتروپیک باید تابع محدودیتهای اخلاقی شرکت باشند یا برای همه کاربردهای مورد نظر پنتاگون در دسترس قرار بگیرند.
از آنجا که دو کاربرد هوش مصنوعی شامل استفاده از آن برای نظارت جمعی و بهکارگیری آن در سلاحهای کاملاً خودمختار در قرارداد اولیه آنتروپیک صراحتاً رد شده بودند، به راحتی میتوان از خواستههای پنتاگون، حالوهوای اسکاینت را برداشت کرد.
«مت یگلسیاس»(Matt Yglesias)، روزنامهنگار آمریکایی نوشت: اگر دولت ما تصمیم به ساخت رباتهای قاتل خودمختار بگیرد، همه سناریوهای عجیب و پیچیده مطرحشده توسط مخالفان هوش مصنوعی، بسیار سادهتر اجرا خواهند شد.
پنتاگون ادعا نکرد که قصد انجام دادن چنین کاری را دارد، اما نگرانی آشکار این است که پنتاگون نمیتواند یک فناوری حیاتی را در ساختار امنیت ملی بگنجاند و سپس به یک شرکت خصوصی، حق وتوی اخلاقی را درباره استفاده از آن بدهد. حتی اگر این اصول اخلاقی روی کاغذ منطقی به نظر برسند، باز هم جای نگرانی وجود دارد. انجام دادن این کار، تصمیماتی را که قرار است توسط یک رئیس جمهور منتخب و اطرافیان او گرفته شوند، برونسپاری میکند و وقتی رویدادها با آرمانهای شرکت هماهنگ نباشند، خطر یک فاجعه را به همراه دارد.
نگرانی آشکار این است که پنتاگون نمیتواند یک فناوری حیاتی را در ساختار امنیت ملی بگنجاند و سپس به یک شرکت خصوصی، حق وتوی اخلاقی را درباره استفاده از آن بدهد.
بارزترین نمونه از چنین اهدافی، استفاده از هوش مصنوعی «کلود»(Claude) شرکت آنتروپیک در حمله آمریکا به ایران بود.
پس از آنکه شرکت آنتروپیک تلاش کرد تا برای جلوگیری از استفاده وزارت دفاع آمریکا از مدلهای هوش مصنوعی خود برای نظارت گسترده داخلی یا سلاحهای کاملاً خودمختار مذاکره کند، «دونالد ترامپ»، رئیسجمهور آمریکا به آژانسهای فدرال دستور داد تا استفاده از همه محصولات آنتروپیک را متوقف کنند و «پیت هگست»(Pete Hegseth)، وزیر دفاع آمریکا گفت که این شرکت را به عنوان یک تهدید برای زنجیره تأمین معرفی میکند.
در نهایت به رغم تصمیم ترامپ مبنی بر توقف استفاده از محصولات آنتروپیک، دیروز گزارش شد که ارتش آمریکا از مدل هوش مصنوعی کلود برای اطلاعرسانی درباره حمله به ایران استفاده کرده است.
به نقل از سیانبیسی، «لورن کان»(Lauren Kahn)، تحلیلگر ارشد تحقیقاتی در «مرکز امنیت و فناوریهای نوظهور»(CSET) درباره بحث بین پنتاگون و آنتروپیک گفت: هیچ برندهای در این ماجرا وجود ندارد. این موضوع کام همه را تلخ میکند.
کاری که پنتاگون در حال حاضر انجام میدهد، نشانگر یک تغییر است. این تغییر، فاصله گرفتن از دههها نوآوری دفاعی است که در آن دولتها خود فناوری را هنگام ایجاد آن کنترل میکردند.
دریاسالار «لورین سلبی»(Lorin Selby)، رئیس سابق بخش تحقیقات نیروی دریایی آمریکا گفت: در بیشتر دوران پس از جنگ جهانی دوم، دولت آمریکا مرز فناوری پیشرفته را تعریف میکرد، الزامات را تعیین میکرد، تأمین مالی تحقیقات بنیادین را بر عهده داشت و صنعت نیز براساس مشخصات تعیینشده توسط دولت عمل میکرد.
در همه زمینهها از نیروی محرکه هستهای گرفته تا رادارگریزی و GPS، دولت موتور اصلی اکتشاف بود و صنعت مسئولیت یکپارچهسازی و تولید را بر عهده داشت. امروزه بخش تجاری محرک اصلی قابلیتهای پیشرو است. سرمایه خصوصی، رقابت جهانی و مقیاس دادههای تجاری، هوش مصنوعی را با سرعتی پیش میبرند که ساختارهای تحقیق و توسعه سنتی دولتی به راحتی نمیتوانند آن را تکرار کنند. وزارت جنگ دیگر مرز آنچه را که از نظر فنی در هوش مصنوعی امکانپذیر است تعریف نمیکند، بلکه خود را با آن وفق میدهد.
این تغییر در موازنه قدرت بر سر فناوری، هم فرصت و هم ریسک را به همراه دارد.
چرا ارتش آمریکا به هوش مصنوعی خصوصی نیاز دارد؟
مشارکتهای دولتی و خصوصی مدتهاست که از نوآوریهای دفاعی آمریکا حمایت کردهاند، اما هوش مصنوعی متفاوت است، زیرا پیشرفتهترین قابلیتها به طور فزایندهای در شرکتهای تجاری به جای آزمایشگاههای دولتی متمرکز شدهاند.
این موضوع، نگرانیهایی را نیز به همراه داشته است. بتسی کوپر»(Betsy Cooper)، مدیر آکادمی سیاستگذاری آسپن و مشاور سابق وزارت امنیت داخلی آمریکا گفت: وقتی فناوریهای حیاتی امنیت ملی توسط شرکتهای خصوصی توسعه داده میشوند، تغییر اصلی این است که دولت دیگر کنترل کامل بر توسعه پیشرفتهترین فناوریهای خود ندارد.
بسیاری از شرکتهای خصوصی هوش مصنوعی نیز نگران تسلط کامل دولت آمریکا بر فناوریهای آنها برای نظارت داخلی و اهداف خارجی هستند.
در مقابل، بسیاری از شرکتهای خصوصی هوش مصنوعی نیز نگران تسلط کامل دولت آمریکا بر فناوریهای آنها برای نظارت داخلی و اهداف خارجی هستند. کشمکشهای اخیر بین پنتاگون و آنتروپیک بر سر مدل هوش مصنوعی کلود، نتیجه همین نگرانیهاست.
بعید است که رهبران دفاعی بخواهند از کنترل سیستمهای حیاتی دست بکشند. برد هریسون»(Brad Harrison)، بنیانگذار شرکت «Scout Ventures» که در حوزه امنیت ملی و نوآوری فناوریهای حیاتی سرمایهگذاری میکند، گفت: اولین چیزی که باید درک کرد، این است که وزارت دفاع آمریکا قرار نیست کنترل نهایی را واگذار کند. دولت هنوز میخواهد همه چیزهایی را که در آنها دخیل است، در اختیار داشته باشد و همه وابستگیها و خطرات آن را درک کند.
این عطش به سلطه، عواقبی خواهد داشت. سلبی گفت: اگر ما در روابط دولتی و خصوصی همسویی و انعطافپذیری ایجاد کنیم، هوش مصنوعی میتواند امنیت ملی را تقویت کند و در عین حال نوآوری را حفظ کند، اما اگر در این کار شکست بخوریم، آینده را به خطر میاندازیم.
خطرات بسیاری در بهکارگیری هوش مصنوعی در حوزه نظامی وجود دارد. به عنوان مثال، اتکا به هوش مصنوعی ممکن است در صورت خرابی غیرمنتظره سیستمها یا از دسترس خارج شدن آنها، به ویژه اگر واحدهای نظامی در طول عملیات به چنین سیستمهایی عادت کنند، آسیبپذیریهایی را به همراه داشته باشد.
با توجه به این پیشبینیها، بسیاری از کارشناسان عقیده دارند که مواردی مانند کشمکش میان پنتاگون و آنتروپیک بر سر این است که چه کسی کنترل هوش مصنوعی را در دست بگیرد.