امكان استفاده نظامی از ربات‌های قاتل

روزنامه نیویورك تایمز استفاده نامطلوب از هوش مصنوعی در آینده را نگران كننده توصیف كرد و درباره تحقق كابوس بهره برداری از نمونه ربات‌های قاتل در فیلم های هالیوودی به عنوان ابزار نظامی در آینده هشدار داد.

1402/02/16
|
14:26
|

به گزارش رادیو پیام از ایرنا، نیویورك تایمز نوشت: مقام های امنیت ملی آمریكا درباره استفاده احتمالی از فناوری های جدید در درگیری های سایبری و در موارد شدید، استفاده از سلاح های هسته ای در آینده هشدار داده اند.

این گزارش افزود: هنگامی كه جو بایدن رئیس جمهوری آمریكا اكتبر گذشته محدودیت هایی را در فروش تراشه های پیشرفته رایانه ای به چین وضع كرد آن را به عنوان بخشی از تلاش خود برای فرصت دادن به صنایع آمریكایی به منظور احیای رقابت پذیری خود عرضه كرد.

اما وزارت دفاع آمریكا (پنتاگون) و شورای امنیت ملی دستوركار دومی را دنبال می كردند: كنترل تسلیحات.

براساس این گزارش، مقام های دفاعی آمریكا مدعی اند اگر ارتش چین نتواند به تراشه ها دست یابد ممكن است تلاش هایش را برای توسعه سلاح های ساخته شده بر اساس هوش مصنوعی كاهش دهد. این امر به كاخ سفید و جهان فرصت كافی خواهد داد تا مقرراتی را برای استفاده از هوش مصنوعی در حسگرها، موشك ها و سلاح های سایبری وضع كند تا در نهایت مانع از تحقق برخی كابوس های هالیوودی شود كه یك ربات قاتل و رایانه ها خالقان انسانی خود را محبوس می كنند.

اكنون نگرانی از چت بات ها یا «چت جی پی تی» (ChatGPT) و دیگر نرم افزارهای هوش مصنوعی، محدود كردن فروش تراشه ها به پكن را صرفا به اقدامی موقتی تبدیل كرده است.

چت بات یك نرم‌افزار هوش مصنوعی است كه می‌تواند از طریق برنامه‌های پیام‌رسان، وب‌سایت‌ها، اپلیكیشن‌های موبایلی و یا تلفن، مكالمه (چت) با یك كاربر را به زبان طبیعی شبیه‌سازی كند. چت بات‌ها اغلب به عنوان یكی از پیشرفته‌ترین و كارآمدترین ابزار، جهت تعامل بین انسان و ماشین محسوب می‌شوند. ChatGPT یك چت ربات هوش مصنوعی است

بایدن به تازگی در نشستی با مدیران فناوری آمریكا دیدار كرد. بایدن در این دیدار از آنها كه تلاش می كنند خطرات استفاده از فناوری هوش مصنوعی را كاهش دهند سوال كرد كه درباره این خطر جدی و مهم چه برنامه ای دارند.

دستیاران امنیت ملی بایدن می گویند این سوال وی در واكنش به جلسات توجیهی محرمانه ای بوده كه در آنها درباره پتانسیل فناوری جدید برای خنثی كردن جنگ ها، درگیری های سایبری و تصمیم گیری درباره استفاده از سلاح های هسته ای هشدار داده شده است.

نیویورك تایمز نوشت تاكنون توافق یا معاهده ای بین المللی درباره استفاده از سلاح های خودكار وجود ندارد. در عصری كه توافقات كنترل تسلیحاتی كنار گذاشته می شوند چشم انداز روشنی نیز برای چنین معاهداتی وجود ندارد. اما چالش های ناشی از چت بات هوش مصنوعی متفاوت و در مواردی پیچیده است.

در ارتش، سامانه های مجهز به هوش مصنوعی می‌توانند سرعت تصمیم‌گیری‌های در میدان جنگ را تا حدی افزایش دهند كه این امر به خودی خود خطرات كاملاً جدیدی در حملات تصادفی یا تصمیم‌گیری‌در مورد هشدارهای گمراه‌كننده یا عمداً نادرست در برابر حملات دریافتی ایجاد می كنند.

بر اساس این گزارش خطرات بزرگ‌تر ممكن است از سوی بازیگران انفرادی، تروریست‌ها، گروه‌های باج‌افزار یا كشورهای كوچك‌تر با مهارت‌های سایبری پیشرفته باشد كه یاد می‌گیرند چگونه یك نسخه كوچكتر و كمتر محدود نرم افزارهای هوش مصنوعی را شبیه‌سازی كنند. آنها ممكن است به این نكته دست یابند كه نرم افزار هوش مصنوعی برای سرعت بخشیدن به حملات سایبری و هدف قرار دادن اطلاعات نادرست ابزاری بسیار مناسب است.

برخی كارشناسان می گویند از آنجایی كه توقف گسترش چت بات هوش مصنوعی و نرم افزارهای مشابه غیرممكن است، بهترین امید محدود كردن تراشه های تخصصی و سایر ابزارهای محاسباتی مورد نیاز برای پیشرفت فناوری است. این امر بدون شك یكی از مجموعه طرح‌های كنترل تسلیحات مختلف خواهد بود كه در چند سال آینده ارائه می‌شود، به ویژه در دورانی كه قدرت‌های هسته‌ای بزرگ، دستكم دیگر علاقه‌ای به مذاكره بر سر سلاح‌های قدیمی و حتی بیشتر از سلاح‌های جدید ندارند.

دسترسی سریع