بررسی تأثیر توسعه ابزارهای هوش مصنوعی بر حوزه امنیت سایبری حكایت از آن دارد كه این فناوری جدید میتواند در آینده چهره حفاظت از داده را تغییر دهد و به منزله مدافع و مهاجم در این حوزه عمل كند.
به گزارش رادیو پیام از خبرگزاری مهر، گروه فناوریهای نوین: طی سالهای گذشته هوش مصنوعی مولد (AI) بهعنوان ابزاری قدرتمند و مؤثر در زمینههای مختلف، از جمله امنیت سایبری ظهور كرده است. این فناوری كه بر اساس الگوریتمهای یادگیری عمیق عمل میكند تواناهایی متعدد مانند تولید محتوای واقعی و غیرواقعی بهصورت متن، تصویر و ویدئو دارد.
درحالیكه هوش مصنوعی مولد نویدبخش افزایش امنیت سایبری است، قادر به ایجاد مخاطرات جدی برای این حوزه نیز هست. تكنولوژی و پیشرفتهایش باعث قدرتمندتر شدن مجرمان سایبری شده و خدماتی را به آنها ارائه میدهد. یكی از این چالشها استفاده از مدلهای زبانی مانند «ChatGPT» برای نوشتن كدهای مخرب است.
76 درصد از شركتها بر اساس آمار فوربس و تحقیقات شركت بلكبری، هوش مصنوعی و یادگیری ماشینی را در اولویتهای بودجه مختص فناوری اطلاعات خود قرار داده اند تا بتوانند حجم زیادی از دادهها را برای شناسایی و كاهش تهدیدات سایبری تجزیه تحلیل كنند؛ در نتیجه هوش مصنوعی هم برای مجرمین سایبری و هم مبارزه با جرایم سایبری ابزاری ضروری است.
دولتها و شركتها برای مدیریت بهتر آینده بهتر است مخاطرات و كاربردهای هوش مصنوعی را در امنیت سایبری شناخته و راههایی برای مقابله با چالشهای آن در نظر بگیرند. در ادامه به بخشی از فرصتها و مخاطرات هوش مصنوعی برای امنیت سایبری اشاره میكنیم.
*شناسایی و تجزیه تحلیل بدافزار
هوش مصنوعی مولد قادر است با تجزیهوتحلیل نمونههایی از بدافزارها، روش و الگوریتم آنها را دریافته و با ارائه آن به متخصصان و تحلیلگران امنیتی بسیار مؤثر عمل كند. متخصصان و تحلیلگران امنیتی با استفاده از الگوهای تحلیل شده توسط هوش مصنوعی مولد میتوانند بدافزارها را بهتر درك كرده و اقدامات دفاعی متقابل و مؤثر و روشهای دفاعی پیشگیرانه جدیدی را بر اساس الگوی عملكردی از بدافزارها كه هوش مصنوعی به آنها ارائه كرده تدوین كنند. اكثر تصمیمگیرندگان حوزه فناوری اطلاعات قصد دارند روی امنیت سایبری مبتنی بر هوش مصنوعی سرمایهگذاری كنند.
*طراحی نمونههای متخاصم
یكی دیگر از تواناییهای هوش مصنوعی طراحی نمونههای بدافزارهای متخاصم است كه به طور اختصاصی برای فریب هوش مصنوعی طراحی شدهاند. با تولید چنین نمونههایی متخصصان میتوانند تدابیر امنیتی لازم را برای محافظت از مدلها و سیستمهای هوش مصنوعی در برابر حملات خصمانه ایجاد كنند. این تدابیر میتواند منجر به تقویت دفاعی و استحكام هوش مصنوعی در برابر حملات پیچیده متخاصمان و مجرمین سایبری شود.
*شكستن رمز عبور و احراز هویت
هوش مصنوعی میتواند برای سخت كردن تكنیكهای شستن رمز عبور مجرمان سایبری با تحلیل و بررسی رفتار كاربران، تركیبات رمز عبور احتمالی را در نظر گرفته و مدلهای جدید رمز عبور كه شكستن آنها سختتر باشد را ایجاد كرده و سیستمهای احراز هویت قویتری طراحی كند. این قابلیتهای هوش مصنوعی میتواند به افزایش امنیت سایبری كمك كند.
*ارزیابی آسیبپذیری و تشخیص نفوذ شبكه
هوش مصنوعی میتواند آسیبپذیریها را در سیستمهای نرمافزاری شناسایی كرده و توصیههایی برای برطرفكردن آن دهد و از این نظر میتواند از آنتیویروسها قدرتمندتر عمل كند؛ زیرا زمان و تلاش موردنیاز برای شناسایی و رفع نقصهای امنیتی را كاهش میدهد و با عملكرد بهینه خود نسبت به ابزارهای قدیمی، وضعیت امنیتی كلی سیستمها و برنامهها را بهبود میبخشد. از طرف دیگر هوش مصنوعی رفتارهای مشكوكی كه نشاندهنده نفوذ در شبكه است را تشخیص داده و به آنها پاسخ مناسب داده و از زیر ساختهای حیاتی محافظت كنند. بهعبارتدیگر هوش مصنوعی امكان نظارت مستمر خودكار را فراهم میكند كه برای امنیت سایبری مدرن امری ضروری است.
خطرات و آسیبهای هوش مصنوعی برای امنیت سایبری
* فیشینگ پیشرفته و حملات مهندسی اجتماعی
یكی از خطرات هوش مصنوعی مولد زبانی، توانایی ایجاد ایمیلهای فیشینگ، پیامها یا تماسهای تلفنی بسیار قانعكننده است. این یك زنگ خطر بزرگ برای افراد سازمان و حتی دولتهاست زیرا مهاجمان از طریق فیشینگ میتوانند با فریب كاربران دست به اقدامات مخرب و فاش كردن اطلاعات حساس بزنند. پیچیدگی هوش مصنوعی مولد اثربخشی مهندسی اجتماعی را تقویت كرده و مقاومت در برابر آنها را سختتر میكند. تربیت جامعهای با سواد سایبری و رسانهای بالا و آگاه به اصول مهندسی اجتماعی برای جلوگیری از فریبخوردن از ابزار فناورانه مدرن، یكی از نیازهای بشر امروز است.
*مطالب و اطلاعات جعلی عمیق
هوش مصنوعی مولد میتواند محتوای جعلی عمیق (deep fake) بسیار واقعی با فرمتهای تصویر، ویدئو و صدا تولید كند. سوءاستفادهكنندگان با استفاده از این قابلیت هوش مصنوعی میتوانند با انتشار اطلاعات نادرست افكار عمومی را دستكاری كرده و حتی هویت افراد را جعل كنند. دیپفیك میتواند عواقبی شدید؛ مانند آسیبزدن به آبرو، سو استفادههای سیاسی داشته باشد و در نهایت به اعتماد عمومی خدشهای جبرانناپذیر وارد كند.
*دورزدن سیستمهای امنیتی سنتی
مهاجمان میتوانند با طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتیویروسها را دور بزنند و با طراحی و تولید بدافزارهایی كه دائماً درحالتوسعه و تكاملاند و از شناسایی طفره میروند، حملاتی پیچیده انجام دهند.
*پیامدهای اخلاقی و حقوقی
استفاده از هوش مصنوعی مولد در امنیت سایبری، باعث نگرانیهایی در مورد نقض حریم خصوصی افراد و تصمیمگیریهای مغرضانه این ابزار شده است. بهعبارتدیگر هوش مصنوعی مولد قادر است امنیت كاربران را در فضای سایبری تهدید كند.
لازم است تا چارچوبهای قانونی پیرامون مسئولیتپذیری این ابزار جدید فناوری ایجاد شده و همزمان با پیشرفتهای هوش مصنوعی بهروز شوند تا با ایجاد هنجارها و ضوابط ضروری، تعهدات آن را افزایش دهند.
هوش مصنوعی و آینده امنیت سایبری
«امیرعباس ركنی»، دانشجوی دكتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره كم و كیف تأثیر هوش مصنوعی بر امنیت سایبری به خبرنگار مهر گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط كنونی حاكم برجهان فناوری، تأثیرات قابلتوجهی بر حوزه امنیت سایبری گذاشته است و انتظار میرود این فرایند در آینده جدیتر و مؤثرتر به پیش برود. بهطوركلی، باید توجه داشت كه فناوری هوش مصنوعی همانند یك سكه دو رو دارد و پیشرفتها و توسعههای آن میتواند منجر به شكلگیری مجموعهای از فرصتها و تهدیدهایی برای حوزه امنیت سایبری بشود.
وی افزود: تا همین جای كار هم باید اذعان داشت كه هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یك پدیده تحولآفرین بوده است. ما در جهان فناوری كمتر پدیدهای را میتوانیم همچون هوش مصنوعی پیدا كنیم كه در مدتزمان كوتاهی بتواند یك پارادایم مختص به خود خلق كرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد كند. هوش مصنوعی دقیقاً همین اقدام را در سالهای اخیر انجام داده است. هنگامی كه ما در خصوص امنیت سایبری میخواهیم صحبت كنیم، باید توجه داشته باشیم كه برخی مؤلفهها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب میكند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یك ملازمهای در اینجا وجود دارد. در حالی كه میبینیم هوش مصنوعی با خودكار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل میرساند. بر همین اساس است كه می گویم هوش مصنوعی منجر به ایجاد یك تغییر پارادایم در جهان فناوری شده است.
وی در ادامه به مرور مهمترین تغییراتی كه توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهمترین تغییراتی كه توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد میتوانیم اشاره كنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیبپذیری به صورت بهبودیافته و سوم عملیات امنیتی خودكار.
این كارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد كه بهطور قابلتوجهی تواناییهای تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتمهای یادگیری ماشینی میتوانند حجم وسیعی از دادهها، از جمله ترافیك شبكه، رفتار كاربر و گزارشهای سیستم را تجزیه و تحلیل كنند تا الگوها و ناهنجاریهایی را كه ممكن است نشاندهنده حملات سایبری باشد، شناسایی كنند. سیستمهای مجهز به هوش مصنوعی میتوانند از دادههای تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امكان تشخیص سریعتر و دقیقتر حوادث امنیتی را فراهم كنند. علاوه بر این، هوش مصنوعی میتواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و كاهش تهدیدها، پاسخ به حادثه را خودكار كند.
وی درباره موضوع ارزیابی آسیبپذیری به صورت بهبودیافته به كمك هوش مصنوعی گفت: هوش مصنوعی میتواند برای شناسایی مؤثرتر آسیبپذیریها در سیستمها و شبكههای نرمافزاری استفاده شود. الگوریتمهای هوش مصنوعی میتوانند كد، پیكربندیهای سیستم و شبكه را برای شناسایی نقاط ضعف احتمالی و شكافهای امنیتی تجزیه و تحلیل كنند. این میتواند به سازمانها كمك كند تا وضعیت امنیتی خود را تقویت كنند.
كرمی ادامه داد: هوش مصنوعی میتواند عملیات امنیتی مختلف را خودكار كند، بار كاری تحلیلگران انسانی را كاهش داده و زمان پاسخگویی سریعتر را ممكن بسازد. برای مثال، هوش مصنوعی میتواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسكن آسیبپذیری را خودكار كند. این نه تنها كارایی عملیاتی را بهبود میبخشد، بلكه به تحلیلگران انسانی اجازه میدهد تا بر چالشهای امنیتی پیچیدهتر و استراتژیك تر تمركز كنند.
پژوهشگر فضای مجازی در خصوص خطراتی كه هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت كه هوش مصنوعی میتواند به شكل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر بهكارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزایندهای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تكنیكهای هوش مصنوعی متخاصم را میتوان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشكلی یا راهاندازی حملات هدفمند مهندسی اجتماعی، به كار برد. برای مقابله با این تهدیدات، دفاعهای مبتنی بر هوش مصنوعی، از جمله سیستمهای تشخیص نفوذ فعال، فناوریهای فریب و مكانیسمهای احراز هویت مبتنی بر هوش مصنوعی درحالتوسعه هستند.»
وی ضمن اشاره به پیامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتكا به هوش مصنوعی در امنیت سایبری نگرانیهای اخلاقی و چالشهای حریم خصوصی را افزایش میدهد. سیستمهای مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از دادهها دارند. اطمینان از حفظ حریم خصوصی و امنیت این دادهها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیمگیریهای مرتبط با امنیت، مانند اقدامات پاسخ خودكار به حادثه یا اشتراكگذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.
وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتمهای هوش مصنوعی، بهویژه مدلهای یادگیری عمیق، بهعنوان جعبههای سیاه عمل میكنند و درك و توضیح فرآیند تصمیمگیری آنها را به چالش میكشند. این عدم تفسیرپذیری میتواند مانع اعتماد و پذیرش سیستمهای هوش مصنوعی در سناریوهای تصمیمگیری امنیتی و حیاتی شود.
پژوهشگر پژوهشگاه فضای مجازی افزود: به طور كلی، باید بگویم كه اتكای بیشازحد به هوش مصنوعی میتواند پاشنه آشیل امنیت سایبری باشد. در حالی كه هوش مصنوعی میتواند امنیت سایبری را تا حد زیادی افزایش دهد، اتكای بیشازحد به آن بدون نظارت انسانی میتواند مخاطرهآمیز باشد. تخصص انسانی هنوز در درك زمینه تهدیدها، انطباق با تكنیكهای حمله در حال تكامل و تصمیمگیریهای حیاتی، ضروری است. به همین دلیل است كه صاحبنظران این حوزه تأكید میكنند كه برای استفاده از فرصتهای ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعینحال كاهش خطرات، اتخاذ یك رویكرد كلنگرانه بسیار مهم است. این شامل ارزیابی منظم سیستمهای هوش مصنوعی برای شناسایی و كاهش سوگیریها و آسیبپذیریها، اطمینان از شفافیت و تفسیرپذیری مدلهای هوش مصنوعی، حفاظت از حریم خصوصی دادهها و حفظ تعادل بین هوش انسانی و قابلیتهای هوش مصنوعی است.
تنظیمگری هوش مصنوعی و امنیت سایبری
ركنی با اشاره به ابزارهای متعدد سیاستگذاران و قانونگذاران برای كاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاستگذاران و قانونگذاران ابزارهای متعددی برای كاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها میتوانند به ایجاد دستورالعملها، استانداردها و چارچوبهای قانونی كمك كنند كه استقرار مسئولانه و ایمن هوش مصنوعی را ترویج میكنند. با نگاهی به تجربیات بسیاری از كشورهای پیشگام در حوزه هوش مصنوعی، میتوانیم چندین ابزار كلیدی را به منظور تنظیمگری هوش مصنوعی شناسایی كنیم.
وی در ادامه مهمترین ابزارهای یاد شده را چنین برشمرد:
«قانون و مقررات: قانونگذاران میتوانند قوانین و مقرراتی را ایجاد كنند كه به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری میپردازد. این مقررات میتواند جنبههای مختلفی از جمله حفظ حریم خصوصی دادهها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین میكند كه سیستمهای هوش مصنوعی بهگونهای توسعه یافته و مورد استفاده قرار میگیرند كه از منافع افراد و سازمانها محافظت میكند.
بهروزرسانی و تكمیل قوانین ناظر بر حفاظت از دادهها و حریم خصوصی: قانونگذاران میتوانند قوانین حفاظت از دادهها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستمهای هوش مصنوعی بهروزرسانی و تقویت كنند. این قوانین میتوانند دستورالعملهایی را برای جمعآوری، ذخیرهسازی، پردازش و اشتراكگذاری دادهها ایجاد كنند و اطمینان حاصل كنند كه سیستمهای هوش مصنوعی بر اساس حریم خصوصی و رضایت دادهها ساخته شدهاند.
برنامههای صدور گواهینامه: تنظیمكنندهها میتوانند برنامههای صدور گواهینامه یا چارچوبهای انطباق را برای سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامهها میتوانند استانداردها و الزامات امنیتی، حریم خصوصی و ملاحظات اخلاقی را تعیین كنند. با تأیید سیستمهای هوش مصنوعی كه این استانداردها را برآورده میكنند، تنظیمكنندهها میتوانند اطمینان حاصل كنند كه سازمانها شیوههای هوش مصنوعی مسئولانه را اتخاذ میكنند.
دستورالعملهای اخلاقی و كدهای رفتاری: تنظیمگران میتوانند با كارشناسان صنعت هوش مصنوعی همكاری كنند تا دستورالعملهای اخلاقی و كدهای رفتاری را برای توسعهدهندگان و كاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد كنند. این دستورالعملها میتوانند شیوههای هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص كنند. پیروی از چنین دستورالعملهایی میتواند به كاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی كمك كند.
مكانیزمهای حسابرسی و پاسخگویی: قانونگذاران میتوانند مكانیزمهای حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد كنند. این مكانیسمها میتوانند شامل ارزیابیهای منظم، ممیزیهای شخص ثالث و الزامات گزارشدهی برای ارزیابی عملكردهای امنیتی و اخلاقی سیستمهای هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»
وی در پایان تأكید كرد كه تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نكتهای بسیار حائز اهمیت برای قانونگذاران است و گفت: با به كارگیری این ابزارها، آنها میتوانند محیطی ایجاد كنند كه توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت كند و اعتماد به فناوریهای هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت كند.
كنفرانس امنیت سایبری
به گزارش مهر، سال گذشته در حاشیه كنفرانس سالانه امنیت سایبری سانفرانسیسكو (RSA)، شركت فناوری اطلاعات (Zscaler) از هوش مصنوعی بهعنوان عاملی در افزایش 47 درصدی حملات فیشینگ در سال 2022 یادكرد. كارشناسان، مدیران و مقامات دولتی نگراناند كه این تازه آغاز راه است، زیرا مهاجمان میتوانند از هوش مصنوعی برای نوشتن نرمافزارهایی استفاده كنند كه به روشهای جدید وارد شبكه سازمان شده و از طریق فرایندهایی كه طبیعی به نظر میرسند، دادهها را بهصورت غیرقانونی به بیرون منتقل كنند.
كارشناسان در این كنفرانس همچنین تأكید داشتند كه هوش مصنوعی به بالابردن امنیت سیستمهای سازمانها نیز كمك میكند. این فناوری با بررسی ناهنجاریها و جستجوی آسیبپذیریهای ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطهضعفها میشود.
چه اقشاری باید به فكر اقدامات جدی باشند؟
شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان كسبوكار، دولتها و سازمانهای مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدلهای زبانی مولد مانند «ChatGPT» بین مردم و چشماندازهایی مانند هوشمند كردن شهرها، مدیران باید پیامدهای اخلاقی، سایبری و اجتماعی راهحلهای مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالیكه هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است كه پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع كل جامعه از آن استفاده كنیم.