آوازه هوش مصنوعی تدابیر بین‌المللی علیه هوش مصنوعی جدید

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

1402/02/20
|
09:35
|

سیدرضا حسینی: مدتی است كه آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یكی از معروف‌ترین آن‌ها كه به‌محض برخورد با كلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اكثر اسم‌هایی كه با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند كه برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی كوتاه از عرضه عمومی «ChatGPT» و رشد ركورد شكن تعداد كاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت كه جفری هینتون یكی از پیش كسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنكه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شركت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت كند.

وی كه با ابراز نگرانی درباره خطرات هوش مصنوعی از شركت گوگل استعفا داده است، گفت: اكنون از كار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورك تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی كرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند كه در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

قیام كشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از كارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درك ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی كار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و كنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایكروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداكثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم كنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب كسب مزیت و قدرت نامتعارف از سویشركت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط كند.

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ كرده است. این كشور در ماه فوریه اعلام كرد كه پكن از شركت‌های پیشرو در ساخت مدل‌های هوش مصنوعی كه می‌توانند «Chat GPT» را به چالش بكشند، حمایت خواهد كرد. در ماه آوریل خبرگزاری شینهوا یك بیانیه دولتی بر مبنای نشست فصلی حزب كمونیست منتشر كرد. این بیانیه تأكید می‌كند كه چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی كارشناسان این اقدام چین علاوه بر اینكه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینكه دولت چین علاوه بر اینكه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور كار خود قرار داده است. تنظیم‌كننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی كرد و در آن از شركت‌ها خواست كه ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام كنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالكیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت كنترل هوش مصنوعی و صاحبان آن استفاده كرد. با توجه به اینكه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌كند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های كاربران و نقض حریم شخصی مقابله كند.

برخی دیگر از تنظیم گران مانند هلن دیكسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای كه در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند كه عجله در تنظیم‌گری هوش مصنوعی مولد بدون درك و شناخت دقیق كاركرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد كردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام كرد كه كارگروهی مخصوص «ChatGPT» راه‌اندازی كرده است كه این حركت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترك حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و كارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حكمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد كرده‌اند كه ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسك و خطرپذیری، از كم تا غیرقابل‌قبول درجه‌بندی كنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی كشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت كرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

ایالات متحده آمریكا؛ تشكیل كارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی كاربران به سمت «Chat GPT» و تلاش كشورها جهت تنظیم‌گری آن، كاخ سفید در ماه مارس اعلام كرد كه آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

كمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأكید كرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شركت‌های فناوری مسئولیت دارند كه پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل كنند.» او از اعضای كنگره خواست كه یك قانون حریم خصوصی تصویب كنند. چنین قانونی شامل مواردی مانند محدودیت شركت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف كودكان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایكا بنت، سناتور آمریكایی، لایحه‌ای ارائه كرده است كه بر اساس آن كارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریكا تشكیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریكا نیز اعلام كرد كارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر كارها مانند بررسی محموله‌های ورودی به كشور برای ردیابی كالاهای غیرقانونی را مطالعه می‌كند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبكه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود كه هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایوركاس اعلام كرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

كارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این كارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این كارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشكیل این كارگروه موقتی است و بعد از 18 ماه، گزارش نهایی را ارائه كرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریكا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شركت‌های هوش مصنوعی از جمله مایكروسافت و گوگل به‌وضوح اعلام كرد كه شركت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین كنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شركت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام كه منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

بریتانیا؛ مسئولیت پذیر كردن شركت‌ها از طریق رویكردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام كردند هوش مصنوعی علاوه بر مزایایی كه در رشد و پیشرفت بشر دارد ممكن است مشكلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد كند. آن‌ها مدعی شدند كه قوانین سخت‌گیرانه و سركوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویكردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

كمی بعد استفان آلموند، مدیر اجرایی ریسك‌های امنیت داده از دفتر كمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شركت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأكید كرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی كه از هوش مصنوعی استفاده می‌كنند به حفاظت از داده‌های شخصی اشاره كرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام كرد كه قصد دارد به‌جای ایجاد یك نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌كننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم كنند.

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام كرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و كاربران زیر 13 سال داشتند. همچنین سازمان دیده‌بان ایتالیا در 20 مارس گفت كه هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملكرد پلتفرم وجود ندارد.

ایتالیا از شركت سازنده هوش مصنوعی جدید خواست ابزاری فراهم كند تا همه افرادی كه داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود كه به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح كنند. OpenAI همچنین باید به غیر كاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت كنند.

همچنین از این شركت خواسته شده تا پایان سپتامبر یك سیستم تأیید سن را راه اندازی كند تا دسترسی كاربران زیر 13 سال به چت جی پی تی ممنوع شود.

كمتر از یك ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این كشور در روز جمعه نسبت به رویكرد خود درباره چت‌بات OpenAI عقب نشینی كرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی كه درباره حریم خصوصی و امنیت داده‌های كاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.


آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر 42 انجمن و اتحادیه تجاری آلمانی كه نماینده بیش از 140 هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم كند. آنها به تهدید «چت جی پی تی» برای كپی رایت آثارشان اشاره كردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی كه می‌تواند از انسان‌ها تقلید كند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین كردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌كند كه باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مركز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع كند. به گزارش ایندیپندنت، اولریش كلبر، رئیس حفاظت از داده‌های كشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد كه چنین اقدامی در آلمان نیز صورت بگیرد.»

ژاپن؛ اجلاس G7 و بیانیه پایانی با محوریت هوش مصنوعی

وزرای كشورهای عضو گروه 7 معتقدند باید قوانینی مبتنی بر ریسك برای هوش مصنوعی به كار گیرند.

این در حالی است كه قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یك قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع كنند البته طبق بیانیه مشترك وزرای گروه 7، قانون مذكور باید یك محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ كند و مبتنی بر ارزش‌های دموكراتیك باشد.

این بیانیه در پایان اجلاس 2روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممكن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یكسان و هدف ایجاد یك سیستم هوش مصنوعی ایمن بین كشورهای عضو این گروه متفاوت باشد، اما توافق مذكور نقطه عطفی در زمینه نظارت كشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسك‌های امنیتی است.

مارگارت وستاگر كمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه 7 نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاكرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه 7 ادامه دهیم. در این مذاكرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالكیت معنوی از جمله كپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی كه توسط نیروهای خارجی دستكاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن كه رئیس گروه 7 در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه 7 را به یك فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد كند.



بانك روسی «اسبربانك» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه كرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده كنند.

به گفته اسبربانك نكته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبكه‌های عصبی خارجی است.

اسبربانك یا بانك پس‌انداز فدراسیون روسیه بزرگترین بانك در روسیه و اروپای شرقی است كه در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری كرده است. هدف این بانك كاهش اتكای كشور به واردات است زیرا پس از حمله روسیه به اوكراین كشورهای غربی صادرات را به شدت كاهش داده و تحریم‌های علیه آن وضع كرده اند.



«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌كند. یكی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیكارشدن بخشی از نیروی كار فعلی جوامع است. افزایش نظارت دولت‌ها و شركت‌های صاحب فناوری بر كاربران، افزایش دستكاری در افكار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یك شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نكته دیگر این است كه پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمركز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور كلی حكمرانان یك جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شركت‌های هوش مصنوعی مانند سایر شركت‌ها در بخش خصوصی، بیشینه كردن سود تجاری است. بنابراین این شركت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا كه مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یك جامعه بسیار كمتر از سرعت تغییرات فناوری در آن جامعه است (كه اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌كنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذكر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در كشورهایی كه واردكننده فناوری هستند، تلاش می‌كند تا با محدودكردن شركت‌های فناوری از اختلالات ذكر شده بكاهد. به عنوان مثال بریتانیا و اتحادیه اروپا كه در زمینه تحولات فناوری از شركت‌های آمریكایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شركت‌های آمریكایی رقابت كند، به مقررات‌گذاریِ حداكثری برای شركت‌های آمریكایی روی آورده‌اند.

وی با بیان اینكه مسئله میزان اهمیت و اولویت ورود تنظیم‌گران و فعالان ایران به این عرصه نیز چالش دیگری است كه باید مورد بحث و تبادل نظر قرار گیرد، گفت: از سوی دیگر، نحوه استفاده بهینه و كارآمد از تحول اخیر در كشور نیز مسئله‌ای است كه باید مورد توجه قرار گیرد.

زرودی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر كند مشروط به آنكه رویكرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد كند.

هر یك روز تأخیر ما برای ورود به طراحی اكوسیستم بومی یك فناوری منجر به این می‌شود كه در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حكمرانی فعال، غنیمت شمردن فرصت‌هاست

وی اظهار داشت: تاكنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یك فناوری را گرفته‌ایم یا در نهایت آن را وارد كرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به كشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل كه ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌كردیم، برخی این موضوع را باور نداشتند تا اینكه در دو سال گذشته، آفكام در رویكرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها كرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفكام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌كند. بعد از این اقدام آفكام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یك روز تأخیر ما برای ورود به طراحی اكوسیستم بومی یك فناوری منجر به این می‌شود كه در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حكمرانی فعال، غنیمت شمردن فرصت‌هاست.

هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اكتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و كلان زندگی بشر رونق بیشتری داده و كیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نكردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد كه نه‌تنها خود آسیب می‌زنند بلكه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند كرد.

دسترسی سریع