روزنامه نیویورك تایمز استفاده نامطلوب از هوش مصنوعی در آینده را نگران كننده توصیف كرد و درباره تحقق كابوس بهره برداری از نمونه رباتهای قاتل در فیلم های هالیوودی به عنوان ابزار نظامی در آینده هشدار داد.
به گزارش رادیو پیام از ایرنا، نیویورك تایمز نوشت: مقام های امنیت ملی آمریكا درباره استفاده احتمالی از فناوری های جدید در درگیری های سایبری و در موارد شدید، استفاده از سلاح های هسته ای در آینده هشدار داده اند.
این گزارش افزود: هنگامی كه جو بایدن رئیس جمهوری آمریكا اكتبر گذشته محدودیت هایی را در فروش تراشه های پیشرفته رایانه ای به چین وضع كرد آن را به عنوان بخشی از تلاش خود برای فرصت دادن به صنایع آمریكایی به منظور احیای رقابت پذیری خود عرضه كرد.
اما وزارت دفاع آمریكا (پنتاگون) و شورای امنیت ملی دستوركار دومی را دنبال می كردند: كنترل تسلیحات.
براساس این گزارش، مقام های دفاعی آمریكا مدعی اند اگر ارتش چین نتواند به تراشه ها دست یابد ممكن است تلاش هایش را برای توسعه سلاح های ساخته شده بر اساس هوش مصنوعی كاهش دهد. این امر به كاخ سفید و جهان فرصت كافی خواهد داد تا مقرراتی را برای استفاده از هوش مصنوعی در حسگرها، موشك ها و سلاح های سایبری وضع كند تا در نهایت مانع از تحقق برخی كابوس های هالیوودی شود كه یك ربات قاتل و رایانه ها خالقان انسانی خود را محبوس می كنند.
اكنون نگرانی از چت بات ها یا «چت جی پی تی» (ChatGPT) و دیگر نرم افزارهای هوش مصنوعی، محدود كردن فروش تراشه ها به پكن را صرفا به اقدامی موقتی تبدیل كرده است.
چت بات یك نرمافزار هوش مصنوعی است كه میتواند از طریق برنامههای پیامرسان، وبسایتها، اپلیكیشنهای موبایلی و یا تلفن، مكالمه (چت) با یك كاربر را به زبان طبیعی شبیهسازی كند. چت باتها اغلب به عنوان یكی از پیشرفتهترین و كارآمدترین ابزار، جهت تعامل بین انسان و ماشین محسوب میشوند. ChatGPT یك چت ربات هوش مصنوعی است
بایدن به تازگی در نشستی با مدیران فناوری آمریكا دیدار كرد. بایدن در این دیدار از آنها كه تلاش می كنند خطرات استفاده از فناوری هوش مصنوعی را كاهش دهند سوال كرد كه درباره این خطر جدی و مهم چه برنامه ای دارند.
دستیاران امنیت ملی بایدن می گویند این سوال وی در واكنش به جلسات توجیهی محرمانه ای بوده كه در آنها درباره پتانسیل فناوری جدید برای خنثی كردن جنگ ها، درگیری های سایبری و تصمیم گیری درباره استفاده از سلاح های هسته ای هشدار داده شده است.
نیویورك تایمز نوشت تاكنون توافق یا معاهده ای بین المللی درباره استفاده از سلاح های خودكار وجود ندارد. در عصری كه توافقات كنترل تسلیحاتی كنار گذاشته می شوند چشم انداز روشنی نیز برای چنین معاهداتی وجود ندارد. اما چالش های ناشی از چت بات هوش مصنوعی متفاوت و در مواردی پیچیده است.
در ارتش، سامانه های مجهز به هوش مصنوعی میتوانند سرعت تصمیمگیریهای در میدان جنگ را تا حدی افزایش دهند كه این امر به خودی خود خطرات كاملاً جدیدی در حملات تصادفی یا تصمیمگیریدر مورد هشدارهای گمراهكننده یا عمداً نادرست در برابر حملات دریافتی ایجاد می كنند.
بر اساس این گزارش خطرات بزرگتر ممكن است از سوی بازیگران انفرادی، تروریستها، گروههای باجافزار یا كشورهای كوچكتر با مهارتهای سایبری پیشرفته باشد كه یاد میگیرند چگونه یك نسخه كوچكتر و كمتر محدود نرم افزارهای هوش مصنوعی را شبیهسازی كنند. آنها ممكن است به این نكته دست یابند كه نرم افزار هوش مصنوعی برای سرعت بخشیدن به حملات سایبری و هدف قرار دادن اطلاعات نادرست ابزاری بسیار مناسب است.
برخی كارشناسان می گویند از آنجایی كه توقف گسترش چت بات هوش مصنوعی و نرم افزارهای مشابه غیرممكن است، بهترین امید محدود كردن تراشه های تخصصی و سایر ابزارهای محاسباتی مورد نیاز برای پیشرفت فناوری است. این امر بدون شك یكی از مجموعه طرحهای كنترل تسلیحات مختلف خواهد بود كه در چند سال آینده ارائه میشود، به ویژه در دورانی كه قدرتهای هستهای بزرگ، دستكم دیگر علاقهای به مذاكره بر سر سلاحهای قدیمی و حتی بیشتر از سلاحهای جدید ندارند.