خبرگزاری کار ایران

اگر هوش مصنوعی به سلاح جنگی تبدیل شود، چه کسی آن را کنترل خواهد کرد؟

اگر هوش مصنوعی به سلاح جنگی تبدیل شود، چه کسی آن را کنترل خواهد کرد؟

به دنبال فشار پنتاگون به شرکت‌های هوش مصنوعی در ارائه فناوری‌های خود برای کمک به این سازمان، این پرسش مطرح می‌شود که با تبدیل شدن هوش مصنوعی به سلاح جنگی، چه کسی قرار است آن را کنترل کند.

در دو روز گذشته نقش هوش مصنوعی در حمله آمریکا به ایران بسیار پررنگ شده، اما باید دید نقش هوش مصنوعی در چنین اتفاقاتی تا چه اندازه مؤثر است و اگر هوش مصنوعی واقعا به یک سلاح تبدیل شده، راه کنترل آن چیست.

فرض کنید که جان خود را در یک فاجعه وحشتناک مرتبط با هوش مصنوعی از دست بدهید. آیا با دانستن این موضوع که مسیر نابودی توسط غرور اربابان فناوری سیلیکون ولی در رسیدن به رؤیاهای آرمان‌شهر و جاودانگی هموار شده یا این که حماقت مقامات پنتاگون در دادن قدرت سرنوشت‌ساز به هوش مصنوعی به امید رقابت با روسیه و چین در این میان نقش داشته است، احساس بدتری خواهید داشت؟

«راس دوتهات»(Ross Douthat)، نویسنده نیویورک تایمز نوشت: ما دوران جنگ سرد را با نگرانی بسیار درباره حماقت‌های نظامی گذراندیم و هوش مصنوعی حتی در آن زمان نیز به اضطراب‌های ما وارد شد.

ماشین آخرالزمانی در فیلم «دکتر استرنجلاو»(Dr. Strangelove)، ابررایانه در فیلم «بازی‌های جنگی»(WarGames) و تصمیم سرنوشت‌ساز در فیلم «ترمیناتور»(Terminator) برای عملیاتی کردن شبکه «اسکای‌نت»(Skynet) مواردی از انعکاس این موضوع بودند، اما در چند سال گذشته، هم‌زمان با پیشرفت‌های هوش مصنوعی در قرار دادن قدرت خارق‌العاده‌ در دستان چند شرکت و مدیران آنها که روی فرهنگ رؤیاهای علمی-تخیلی و ترس‌های آخرالزمانی متمرکز شده‌اند، نگرانی بیشتری درباره قدرت‌طلبی و جاه‌طلبی خصوصی شکل گرفته است.

اوج این نگرانی زمانی بود که برخوردهایی میان وزارت دفاع آمریکا و شرکت «آنتروپیک» (Anthropic) بر سر به کار گرفتن هوش مصنوعی در اهداف این سازمان شکل گرفت. بحث بر سر این بود که مدل‌های هوش مصنوعی آنتروپیک باید تابع محدودیت‌های اخلاقی شرکت باشند یا برای همه کاربردهای مورد نظر پنتاگون در دسترس قرار بگیرند.

از آنجا که دو کاربرد هوش مصنوعی شامل استفاده از آن برای نظارت جمعی و به‌کارگیری آن در سلاح‌های کاملاً خودمختار در قرارداد اولیه آنتروپیک صراحتاً رد شده بودند، به راحتی می‌توان از خواسته‌های پنتاگون، حال‌وهوای اسکای‌نت را برداشت کرد. 

«مت یگلسیاس»(Matt Yglesias)، روزنامه‌نگار آمریکایی نوشت: اگر دولت ما تصمیم به ساخت ربات‌های قاتل خودمختار بگیرد، همه سناریوهای عجیب و پیچیده‌ مطرح‌شده توسط مخالفان هوش مصنوعی، بسیار ساده‌تر اجرا خواهند شد.

پنتاگون ادعا نکرد که قصد انجام دادن چنین کاری را دارد، اما نگرانی آشکار این است که پنتاگون نمی‌تواند یک فناوری حیاتی را در ساختار امنیت ملی بگنجاند و سپس به یک شرکت خصوصی، حق وتوی اخلاقی را درباره استفاده از آن بدهد. حتی اگر این اصول اخلاقی روی کاغذ منطقی به نظر برسند، باز هم جای نگرانی وجود دارد. انجام دادن این کار، تصمیماتی را که قرار است توسط یک رئیس جمهور منتخب و اطرافیان او گرفته شوند، برون‌سپاری می‌کند و وقتی رویدادها با آرمان‌های شرکت هماهنگ نباشند، خطر یک فاجعه را به همراه دارد.

نگرانی آشکار این است که پنتاگون نمی‌تواند یک فناوری حیاتی را در ساختار امنیت ملی بگنجاند و سپس به یک شرکت خصوصی، حق وتوی اخلاقی را درباره استفاده از آن بدهد. 

بارزترین نمونه از چنین اهدافی، استفاده از هوش مصنوعی «کلود»(Claude) شرکت آنتروپیک در حمله آمریکا به ایران بود. 

پس از آنکه شرکت آنتروپیک تلاش کرد تا برای جلوگیری از استفاده وزارت دفاع آمریکا از مدل‌های هوش مصنوعی خود برای نظارت گسترده داخلی یا سلاح‌های کاملاً خودمختار مذاکره کند، «دونالد ترامپ»، رئیس‌جمهور آمریکا به آژانس‌های فدرال دستور داد تا استفاده از همه محصولات آنتروپیک را متوقف کنند و «پیت هگست»(Pete Hegseth)، وزیر دفاع آمریکا گفت که این شرکت را به عنوان یک تهدید برای زنجیره تأمین معرفی می‌کند.

در نهایت به رغم تصمیم ترامپ مبنی بر توقف استفاده از محصولات آنتروپیک، دیروز گزارش شد که ارتش آمریکا از مدل هوش مصنوعی کلود برای اطلاع‌رسانی درباره حمله به ایران استفاده کرده است.

به نقل از سی‌ان‌بی‌سی، «لورن کان»(Lauren Kahn)، تحلیلگر ارشد تحقیقاتی در «مرکز امنیت و فناوری‌های نوظهور»(CSET) درباره بحث بین پنتاگون و آنتروپیک گفت: هیچ برنده‌ای در این ماجرا وجود ندارد. این موضوع کام همه را تلخ می‌کند.

کاری که پنتاگون در حال حاضر انجام می‌دهد، نشانگر یک تغییر است. این تغییر، فاصله گرفتن از دهه‌ها نوآوری دفاعی است که در آن دولت‌ها خود فناوری را هنگام ایجاد آن کنترل می‌کردند.

دریاسالار «لورین سلبی»(Lorin Selby)، رئیس سابق بخش تحقیقات نیروی دریایی آمریکا گفت: در بیشتر دوران پس از جنگ جهانی دوم، دولت آمریکا مرز فناوری پیشرفته را تعریف می‌کرد، الزامات را تعیین می‌کرد، تأمین مالی تحقیقات بنیادین را بر عهده داشت و صنعت نیز براساس مشخصات تعیین‌شده توسط دولت عمل می‌کرد.

 در همه زمینه‌ها از نیروی محرکه هسته‌ای گرفته تا رادارگریزی و GPS، دولت موتور اصلی اکتشاف بود و صنعت مسئولیت یکپارچه‌سازی و تولید را بر عهده داشت. امروزه بخش تجاری محرک اصلی قابلیت‌های پیشرو است. سرمایه خصوصی، رقابت جهانی و مقیاس داده‌های تجاری، هوش مصنوعی را با سرعتی پیش می‌برند که ساختارهای تحقیق و توسعه سنتی دولتی به راحتی نمی‌توانند آن را تکرار کنند. وزارت جنگ دیگر مرز آنچه را که از نظر فنی در هوش مصنوعی امکان‌پذیر است تعریف نمی‌کند، بلکه خود را با آن وفق می‌دهد.

این تغییر در موازنه قدرت بر سر فناوری، هم فرصت و هم ریسک را به همراه دارد.

چرا ارتش آمریکا به هوش مصنوعی خصوصی نیاز دارد؟

مشارکت‌های دولتی و خصوصی مدت‌هاست که از نوآوری‌های دفاعی آمریکا حمایت کرده‌اند، اما هوش مصنوعی متفاوت است، زیرا پیشرفته‌ترین قابلیت‌ها به طور فزاینده‌ای در شرکت‌های تجاری به جای آزمایشگاه‌های دولتی متمرکز شده‌اند.

این موضوع، نگرانی‌هایی را نیز به همراه داشته است. بتسی کوپر»(Betsy Cooper)، مدیر آکادمی سیاست‌گذاری آسپن و مشاور سابق وزارت امنیت داخلی آمریکا گفت: وقتی فناوری‌های حیاتی امنیت ملی توسط شرکت‌های خصوصی توسعه داده می‌شوند، تغییر اصلی این است که دولت دیگر کنترل کامل بر توسعه پیشرفته‌ترین فناوری‌های خود ندارد.

بسیاری از شرکت‌های خصوصی هوش مصنوعی نیز نگران تسلط کامل دولت آمریکا بر فناوری‌های آنها برای نظارت داخلی و اهداف خارجی هستند. 

در مقابل، بسیاری از شرکت‌های خصوصی هوش مصنوعی نیز نگران تسلط کامل دولت آمریکا بر فناوری‌های آنها برای نظارت داخلی و اهداف خارجی هستند. کشمکش‌های اخیر بین پنتاگون و آنتروپیک بر سر مدل هوش مصنوعی کلود، نتیجه همین نگرانی‌هاست.

بعید است که رهبران دفاعی بخواهند از کنترل سیستم‌های حیاتی دست بکشند. برد هریسون»(Brad Harrison)، بنیانگذار شرکت «Scout Ventures» که در حوزه امنیت ملی و نوآوری فناوری‌های حیاتی سرمایه‌گذاری می‌کند، گفت: اولین چیزی که باید درک کرد، این است که وزارت دفاع آمریکا قرار نیست کنترل نهایی را واگذار کند. دولت هنوز می‌خواهد همه چیزهایی را که در آنها دخیل است، در اختیار داشته باشد و همه وابستگی‌ها و خطرات آن را درک کند.

این عطش به سلطه، عواقبی خواهد داشت. سلبی گفت: اگر ما در روابط دولتی و خصوصی همسویی و انعطاف‌پذیری ایجاد کنیم، هوش مصنوعی می‌تواند امنیت ملی را تقویت کند و در عین حال نوآوری را حفظ کند، اما اگر در این کار شکست بخوریم، آینده‌ را به خطر می‌اندازیم.

خطرات بسیاری در به‌کارگیری هوش مصنوعی در حوزه نظامی وجود دارد. به عنوان مثال، اتکا به هوش مصنوعی ممکن است در صورت خرابی غیرمنتظره سیستم‌ها یا از دسترس خارج شدن آنها، به‌ ویژه اگر واحدهای نظامی در طول عملیات به چنین سیستم‌هایی عادت کنند، آسیب‌پذیری‌هایی را به همراه داشته باشد.

با توجه به این پیش‌بینی‌ها، بسیاری از کارشناسان عقیده دارند که مواردی مانند کشمکش میان پنتاگون و آنتروپیک بر سر این است که چه کسی کنترل هوش مصنوعی را در دست بگیرد.

 

منبع ایسنا
انتهای پیام/
ارسال نظر
پیشنهاد امروز