تارنمای آمریکایی آکسیوس با استناد بر هشدارهای صنعتی و مطالعات جدید آکادمیک نوشت: یکی از مدل های هوش مصنوعی که تا پیش از این تحقق آن برای آینده ای دور پیش بینی می شد، اکنون می تواند به خودی خود حملات سایبری را انجام دهد.
این تحول جدید احتمالاً پایین ترین سطح عملکرد ابزارهای هوش مصنوعی تا به حال است؛ با این همه، همین سطح از توانایی هم باعث نگرانی و هراس محققان و توسعهدهندگان شده است.
مقامات ارشد گوگل و شرکت استارت آپ هوش مصنوعی آنتروپیک امروز چهارشنبه در کمیته های فرعی کمیته امنیت داخلی مجلس نمایندگان آمریکا گواهی می دهند که هوش مصنوعی و دیگر فناوری های نوظهور چگونه چشم انداز تهدیدهای سایبری را تغییر خواهند دارد.
لوگان گراهام رئیس «تیم سرخ» شرکت هوش مصنوعی آنتروپیک در متنی که در اختیار تارنمای آکسیوس قرار داده است نوشت: ما بر این باوریم که این اولین شاخص آینده است که با وجود تدابیر محافظتی درباره هوش مصنوعی مدل های این فناوری می توانند در مقیاس بی سابقه ای حملات سایبری انجام دهند.
وی افزود: این حملات سایبری در ماهیت و مقیاس خود به شکل فزاینده ای پیچیده شده اند.
محققان در آزمایشگاههای ایرگولار (Irregular Labs) که وظیفه آزمایش فشارِ امنیتی روی مدلهای پیشرو را بر عهده دارند، اعلام کردند که به شواهد بیشتری دست یافتهاند که نشان میدهد مدلهای هوش مصنوعی در حال پیشرفت در انجام عملیاتهای هک و حملات سایبری هستند. این آزمایشات به محققان کمک می کند این موضوع را بررسی کنند که سدهای امنیتی مدل های هوش مصنوعی در کجا می شکنند.
استفاده از هوش مصنوعی برای انجام کاملا خودکار حملات سایبری فعلا قابل تحقق نیست و حملات اکنون به ابزارهای ویژه، اپراتورهای انسانی و به «جیل بریکس/jailbreaks» یا همان قفل شکن ها نیاز دارند.
این ماجرا به رغم گزارش ماه گذشته شرکت آنتروپیک حقیقت دارد. این شرکت مدعی شد که هکرهای دولتی چین هوش مصنوعی «کلود» را فریب دادند تا باور کند که در حال انجام یک آزمایش نفوذ معمولی است. تنها پس از این فریب بود که هوش مصنوعی شروع به رخنه و نفوذ به سازمانها کرد.
قانونگذاران آمریکایی، جلسه استماع روز چهارشنبه را صرف بررسی روشهای استفاده دولت ها از هکرها و مجرمان سایبری هوش مصنوعی و تغییرات سیاستی و نظارتی لازم برای مقابله بهتر با این حملات خواهند کرد.
گراهام همچنین طبق سخنان افتتاحیه خود نوشت: قانونگذاران را برای محدود کردن دسترسی دشمنان به «تراشههای پیشرفته هوش مصنوعی و ابزارهای مورد نیاز برای تولید آنها» تحت فشار قرار خواهد داد.
اکنون این سوال مطرح است که آیا حامیان فناوری میتوانند بهسرعت از پدافندهای مبتنی بر هوش مصنوعی برای دفع یورشِ قریبالوقوعِ حملات سایبری در سال آینده استفاده کنند یا خیر؟ در همین راستا، توسعهدهندگان مدلهای هوش مصنوعی نیز عرضه «عوامل امنیتی» خود را آغاز کردهاند تا پیش از مهاجمان، رخنهها را شناسایی و برطرف کنند.