توسعه ابزار هوش مصنوعی جدید طی ماههای اخیر، سبب تشدید نگرانیها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانونگذاران سراسر جهان شده است.
سیدرضا حسینی: مدتی است كه آوازه هوش مصنوعی و پیشرفتهایش در سراسر جهان پیچیده و یكی از معروفترین آنها كه بهمحض برخورد با كلمه هوش مصنوعی در ذهن تداعی میشود چت جی پی تی است؛ اما اكثر اسمهایی كه با عنوان هوش مصنوعی به گوش ما میرسند، در واقع نرمافزارهای مبتنی بر هوش مصنوعی هستند.
«ChatGPT» و «Bard» جزو گروه چتباتها هستند و «Midjourney» و «Dall.E» از جمله مدلهای یادگیری ماشینی هستند كه برای تبدیل متن به تصویر دیجیتال ساخته شدهاند.
با گذشت مدتی كوتاه از عرضه عمومی «ChatGPT» و رشد ركورد شكن تعداد كاربران این پلتفرم، مسئله تنظیمگری فناوریهای نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولتهای سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت كه جفری هینتون یكی از پیش كسوتها و پدرخوانده هوش مصنوعی به تازگی و پس از آنكه متوجه شد احتمالاً رایانهها از انسانها باهوشتر میشوند، از شركت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت كند.
وی كه با ابراز نگرانی درباره خطرات هوش مصنوعی از شركت گوگل استعفا داده است، گفت: اكنون از كار خود در این رشته پشیمان است.
او در مصاحبهای با نیویورك تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی كرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود میآورند كه در آنها انسانها نمیتوانند واقعیت را تشخیص دهند.
قیام كشورها علیه فناوریهای نوظهور هوش مصنوعی
با همه اینها به عقیده بسیاری از كارشناسان، هوش مصنوعی فناوری آیندهساز خواهد بود و درك ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی كار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و كنترل آن برآمدهاند.
از سوی دیگر، غولهای فناوری مانند مایكروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهرهبرداری حداكثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیمگری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم كنترل نهادهای قانونگذار و تنظیمگر بر قوانین رقابت، هوش مصنوعی مولد میتواند سبب كسب مزیت و قدرت نامتعارف از سویشركتهای بزرگ فناوری شود و این بنگاههای اقتصادی را بر جوامع بشری مسلط كند.
چین؛ از مقابله رویاروی تا چت بات ملی
دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ كرده است. این كشور در ماه فوریه اعلام كرد كه پكن از شركتهای پیشرو در ساخت مدلهای هوش مصنوعی كه میتوانند «Chat GPT» را به چالش بكشند، حمایت خواهد كرد. در ماه آوریل خبرگزاری شینهوا یك بیانیه دولتی بر مبنای نشست فصلی حزب كمونیست منتشر كرد. این بیانیه تأكید میكند كه چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیشبینی شده آن داشته باشد. به عقیده برخی كارشناسان این اقدام چین علاوه بر اینكه نشاندهنده اولویت چین در تبدیلشدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.
دوم اینكه دولت چین علاوه بر اینكه تلاش دارد تا چتبات ملی خود را داشته باشد، تلاش برای تنظیمگری هوش مصنوعی مولد را نیز در دستور كار خود قرار داده است. تنظیمكننده فضای سایبری چین (CAC) در این راستا از پیشنویس اقداماتی برای تنظیمگری خدمات هوش مصنوعی رونمایی كرد و در آن از شركتها خواست كه ارزیابیهای امنیتی خود را قبل از ارائه خدمات به مقامات اعلام كنند. اصول دولت چین در تنظیمگری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالكیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از دادهها و رفع نابرابری است.
اولین گام مهم اتحادیه اروپا
اتحادیه اروپا و نهادهای قانونگذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چتباتها و هوش مصنوعیهای مولد در پی آسیبشناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجامشده خواهیم داشت.
برخی از قانونگذاران اروپا معتقدند میتوان از مقررات حفاظت از دادههای عمومی (GDPR)، جهت كنترل هوش مصنوعی و صاحبان آن استفاده كرد. با توجه به اینكه هوش مصنوعی از دادهها برای پاسخهای خود استفاده میكند «GDPR» با اصول حفاظت از دادههای خود، میتواند با هرگونه استفاده از دادههای كاربران و نقض حریم شخصی مقابله كند.
برخی دیگر از تنظیم گران مانند هلن دیكسون، عضو هیئت نهاد حفاظت از دادهها ایرلند، در جلسهای كه در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند كه عجله در تنظیمگری هوش مصنوعی مولد بدون درك و شناخت دقیق كاركرد و فرایند آن، مانع تنظیمگری مناسب و صحیح خواهد شد.
در نهایت هیئت حفاظت از دادههای اروپا، با متحد كردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام كرد كه كارگروهی مخصوص «ChatGPT» راهاندازی كرده است كه این حركت را میتوان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترك حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانونگذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و كارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حكمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانونگذاران پیشنهاد كردهاند كه ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسك و خطرپذیری، از كم تا غیرقابلقبول درجهبندی كنند.
بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی كشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت كرده و در حال تحلیل و بررسی گامهای بعدی خود است.
ایالات متحده آمریكا؛ تشكیل كارگروه مقابله با هوش مصنوعی
در راستای جذب میلیونی كاربران به سمت «Chat GPT» و تلاش كشورها جهت تنظیمگری آن، كاخ سفید در ماه مارس اعلام كرد كه آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیتپذیر و پاسخگو نگهداشتن این فناوری جدید را دارد.
كمی قبلتر از آن در ماه می جو بایدن، رئیسجمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأكید كرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شركتهای فناوری مسئولیت دارند كه پیش از عرضه عمومی محصولات خود، از ایمنی آنها اطمینان حاصل كنند.» او از اعضای كنگره خواست كه یك قانون حریم خصوصی تصویب كنند. چنین قانونی شامل مواردی مانند محدودیت شركتها در جمعآوری دادههای شخصی، ممنوعیت تبلیغات برای جامعه هدف كودكان و منع انتشار اطلاعات نادرست و… خواهد بود.
طی آخرین اخبار در آوریل، مایكا بنت، سناتور آمریكایی، لایحهای ارائه كرده است كه بر اساس آن كارگروهی برای بررسی سیاستهای ایالات متحده در زمینه هوش مصنوعی و شناسایی راههای مناسب مقابله با هر گونه نقض حریم خصوصی و آزادیهای مدنی در آمریكا تشكیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.
وزیر امنیت میهن آمریكا نیز اعلام كرد كارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر كارها مانند بررسی محمولههای ورودی به كشور برای ردیابی كالاهای غیرقانونی را مطالعه میكند.
وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبكه توزیع برق و سیستمهای ذخیره آب شد. بیم آن میرود كه هر دو این زیرساختها هدف دشمنان قرار گیرند.
مایوركاس اعلام كرد این فناوری به طور گستردهای چشم انداز تهدیدها را تغییر میدهد.
كارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیتهای هوش مصنوعی برای ضربهزدن به امنیت ملی ایالات متحده شدند.
وظیفه این كارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویهها خواهد بود. اعضای این كارگروه اعضای برخی از سازمانهای دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادیهای مدنی و حریم خصوصی از وزارتخانههای دادگستری، امور خارجه، خزانهداری، دفاع و سایر دستگاههای اجرایی هستند.
بر اساس مفاد لایحه، تشكیل این كارگروه موقتی است و بعد از 18 ماه، گزارش نهایی را ارائه كرده و سپس تعطیل میشود.
در پنجم ماه می جو بایدن، رئیسجمهور ایالات متحده آمریكا به دنبال لزوم تنظیمگری هوش مصنوعی در نشستی با حضور مدیران شركتهای هوش مصنوعی از جمله مایكروسافت و گوگل بهوضوح اعلام كرد كه شركتها موظفاند ایمنی پلتفرمهایشان را قبل از توسعه آن تضمین كنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شركتها در مقابل سیاستگذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانیهایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیمهای غلط در استخدام كه منجر به ازبینرفتن مشاغل شود و ایفای نقش هوش مصنوعی بهعنوان ناشر اطلاعات نادرست اشاره شد.
بریتانیا؛ مسئولیت پذیر كردن شركتها از طریق رویكردهای غیرسختگیرانه
دولتمردان بریتانیایی در ماه آپریل اعلام كردند هوش مصنوعی علاوه بر مزایایی كه در رشد و پیشرفت بشر دارد ممكن است مشكلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد كند. آنها مدعی شدند كه قوانین سختگیرانه و سركوبگر را راهحل مناسبی نمیدانند و قصد دارند رویكردهای منعطفتر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیتپذیری را در پیش گیرند.
كمی بعد استفان آلموند، مدیر اجرایی ریسكهای امنیت داده از دفتر كمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شركت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از دادههای شخصی تأكید كرد. او در ادامه به لزوم متعهدشدن سازمانهایی كه از هوش مصنوعی استفاده میكنند به حفاظت از دادههای شخصی اشاره كرد و پیامدهای اهمیتندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.
سرانجام بریتانیا در ماه مارس اعلام كرد كه قصد دارد بهجای ایجاد یك نهاد تنظیمگر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیمكنندههای حقوق بشر، سلامت و ایمنی و رقابت تقسیم كنند.
ایتالیا؛ فیلترینگ و مشروط سازی
ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام كرد، زیرا مقامات تنظیمگر حفاظت از دادهها نگرانیهایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و كاربران زیر 13 سال داشتند. همچنین سازمان دیدهبان ایتالیا در 20 مارس گفت كه هیچ مبنای قانونی برای توجیه «جمعآوری و ذخیره انبوه دادههای شخصی» بهمنظور «آموزش» الگوریتمهای زیربنایی عملكرد پلتفرم وجود ندارد.
ایتالیا از شركت سازنده هوش مصنوعی جدید خواست ابزاری فراهم كند تا همه افرادی كه دادههایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف دادههای شخصی خود كه بهطور نادرست توسط این سرویس ایجاد شدهاند را مطرح كنند. OpenAI همچنین باید به غیر كاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش دادههای شخصی خود برای اجرای الگوریتمهای چت جی پی تی مخالفت كنند.
همچنین از این شركت خواسته شده تا پایان سپتامبر یك سیستم تأیید سن را راه اندازی كند تا دسترسی كاربران زیر 13 سال به چت جی پی تی ممنوع شود.
كمتر از یك ماه پس از اعمال ممنوعیتهایی برای ChatGPT به دلیل نگرانیهای مربوط به حریم خصوصی توسط ایتالیا، دولت این كشور در روز جمعه نسبت به رویكرد خود درباره چتبات OpenAI عقب نشینی كرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانیهایی كه درباره حریم خصوصی و امنیت دادههای كاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.
آلمان و اقدامی مشابه ایتالیا
همچنین در روزهای اخیر 42 انجمن و اتحادیه تجاری آلمانی كه نماینده بیش از 140 هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریعتر پیش نویس قوانین هوش مصنوعی را فراهم كند. آنها به تهدید «چت جی پی تی» برای كپی رایت آثارشان اشاره كردند.
در این نامه به اهمیت نگرانیهای روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی كه میتواند از انسانها تقلید كند و متن و تصویر بسازد، نیز پرداخته شده است.
در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین كردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد میكند كه باید قبل از ایجاد آسیبهای جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مركز هر قانون مربوط به بازار هوش مصنوعی باشد.
از سوی دیگر به نظر میرسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جیپیتی را ممنوع كند. به گزارش ایندیپندنت، اولریش كلبر، رئیس حفاظت از دادههای كشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جیپیتی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد كه چنین اقدامی در آلمان نیز صورت بگیرد.»
ژاپن؛ اجلاس G7 و بیانیه پایانی با محوریت هوش مصنوعی
وزرای كشورهای عضو گروه 7 معتقدند باید قوانینی مبتنی بر ریسك برای هوش مصنوعی به كار گیرند.
این در حالی است كه قانونگذاران اروپایی سعی دارند هرچه سریعتر یك قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع كنند البته طبق بیانیه مشترك وزرای گروه 7، قانون مذكور باید یك محیط باز و توانمند برای توسعه فناوریهای هوش مصنوعی را حفظ كند و مبتنی بر ارزشهای دموكراتیك باشد.
این بیانیه در پایان اجلاس 2روزه گروه در ژاپن صادر شده است.
هر چند به اعتقاد وزرا ممكن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یكسان و هدف ایجاد یك سیستم هوش مصنوعی ایمن بین كشورهای عضو این گروه متفاوت باشد، اما توافق مذكور نقطه عطفی در زمینه نظارت كشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانیهای حریم خصوصی و ریسكهای امنیتی است.
مارگارت وستاگر كمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه 7 نشان میدهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.
در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاكرات درباره هوش مصنوعی مولد را در اجلاسهای گروه 7 ادامه دهیم. در این مذاكرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالكیت معنوی از جمله كپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی كه توسط نیروهای خارجی دستكاری میشود) مورد بحث قرار میگیرد.
در این میان ژاپن كه رئیس گروه 7 در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.
ژاپن امیدوار است تا گروه 7 را به یك فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد كند.
بانك روسی «اسبربانك» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه كرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه میتوانند از آن استفاده كنند.
به گفته اسبربانك نكته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانهتر به زبان روسی نسبت به سایر شبكههای عصبی خارجی است.
اسبربانك یا بانك پسانداز فدراسیون روسیه بزرگترین بانك در روسیه و اروپای شرقی است كه در سالهای اخیر سرمایه گذاری عظیمی در این فناوری كرده است. هدف این بانك كاهش اتكای كشور به واردات است زیرا پس از حمله روسیه به اوكراین كشورهای غربی صادرات را به شدت كاهش داده و تحریمهای علیه آن وضع كرده اند.
«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوریهای نوظهور گذشته، گرچه مزایای شگفتانگیزی دارد و فرصتهای بیبدیلی میآفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه میكند. یكی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.
وی افزود: تهدید دیگر بیكارشدن بخشی از نیروی كار فعلی جوامع است. افزایش نظارت دولتها و شركتهای صاحب فناوری بر كاربران، افزایش دستكاری در افكار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یك شخصیت مشهور)، پیچیدهتر شدن حملات سایبری، جاسوسی و باجافزارها نیز از دیگر تهدیدات این فناوری محسوب میشوند.
پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسانها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب میشود. نكته دیگر این است كه پیشبینی این تهدیدات و اتخاذ تدابیر تنظیمگرانه برای مقابله با آنها مهم و ضروری است.
وی در ادامه و در مورد دلیل تمركز نهادهای تنظیمگر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانونگذاران و به طور كلی حكمرانان یك جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شركتهای هوش مصنوعی مانند سایر شركتها در بخش خصوصی، بیشینه كردن سود تجاری است. بنابراین این شركتها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا كه مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یك جامعه بسیار كمتر از سرعت تغییرات فناوری در آن جامعه است (كه اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده میكنند) تحولات روزانه فناوریها موجب اختلال در سیستم ارزشی جوامع میشود.
زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذكر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستمها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر میاندازد. قانونگذار به ویژه در كشورهایی كه واردكننده فناوری هستند، تلاش میكند تا با محدودكردن شركتهای فناوری از اختلالات ذكر شده بكاهد. به عنوان مثال بریتانیا و اتحادیه اروپا كه در زمینه تحولات فناوری از شركتهای آمریكایی عقب افتادهاند و محصولات فناورانه داخلی آنها نمیتواند با محصولات شركتهای آمریكایی رقابت كند، به مقرراتگذاریِ حداكثری برای شركتهای آمریكایی روی آوردهاند.
وی با بیان اینكه مسئله میزان اهمیت و اولویت ورود تنظیمگران و فعالان ایران به این عرصه نیز چالش دیگری است كه باید مورد بحث و تبادل نظر قرار گیرد، گفت: از سوی دیگر، نحوه استفاده بهینه و كارآمد از تحول اخیر در كشور نیز مسئلهای است كه باید مورد توجه قرار گیرد.
زرودی در این مورد گفت: فناوریهای نوظهور همواره میتواند شتاب پیشرفت اقتصادی را بیشتر كند مشروط به آنكه رویكرد فعالانه (بدون تأخیر، آیندهنگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساختهای حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور میتواند در مسیر پیشرفت، جهش ایجاد كند.
هر یك روز تأخیر ما برای ورود به طراحی اكوسیستم بومی یك فناوری منجر به این میشود كه در آن فناوری عقبمانده و بدون قدرت باشیم. اقتضای حكمرانی فعال، غنیمت شمردن فرصتهاست
وی اظهار داشت: تاكنون چنین مواجهه مطلوبی با فناوریهای نوظهور نداشتهایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یك فناوری را گرفتهایم یا در نهایت آن را وارد كرده و برایش پیوست فرهنگی و زیست محیطی و… نوشتهایم. پیوستنگاری برای فناوریهای نوظهور حتی اگر نوع پیوستنگاری پیشینی (یعنی پیش از ورود فناوری به كشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل كه ما از ضرورت طراحی بومی اینترنت اشیا صحبت میكردیم، برخی این موضوع را باور نداشتند تا اینكه در دو سال گذشته، آفكام در رویكرد جدید خود برای توسعه سواد رسانهای، اقدام به تعامل با پلتفرمها كرده است تا طراحی پلتفرمها متناسب با اصول سواد رسانهای مدنظر آفكام باشد. درواقع مقررات و ارزشها را در مرحله طراحی فناوری پیادهسازی میكند. بعد از این اقدام آفكام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوریها وجود دارد. هر یك روز تأخیر ما برای ورود به طراحی اكوسیستم بومی یك فناوری منجر به این میشود كه در آن فناوری عقبمانده و بدون قدرت باشیم. اقتضای حكمرانی فعال، غنیمت شمردن فرصتهاست.
هوش مصنوعیهایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرمها میتوانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اكتشاف، آموزش، سیاستگذاری و بسیاری از مسائل خرد و كلان زندگی بشر رونق بیشتری داده و كیفیتشان را بالا ببرد؛ اما بیاهمیتی به معایب آن و اقدامنكردن بهموقع برای تنظیمگری درست و بهقاعده میتواند آثار جبرانناپذیری داشته باشد كه نهتنها خود آسیب میزنند بلكه مزایای هوش مصنوعی را هم عملاً بیفایده خواهند كرد.