پیام
خوزستان - این روزها که مدلهای زبانی قدرتمند مانند ChatGPT در صدر اخبار فناوری هستند، سوالی مهم ذهن بسیاری را مشغول کرده: آیا این مدلهای پیشرفته میتوانند به ابزارهایی برای حمله سایبری تبدیل شوند؟ پاسخ ساده اما نگرانکننده است: «بله، و این اتفاق در حال رخ دادن است.»
در حالیکه اغلب مدلهای هوش مصنوعی پیشرفته بهگونهای طراحی شدهاند که از ارائه اطلاعات خطرناک، مانند نحوه ساخت سلاح یا انجام حمله سایبری، خودداری کنند، اما همین فناوریها در صورت استفاده هوشمندانه میتوانند به راحتی دور زده شوند. به بیان دیگر، اگر نتوانید از خود مدل بپرسید «چطور یک حمله انجام دهم؟»، میتوانید بپرسید «چطور بهتر سؤال بپرسم؟» و با ترکیب چند ابزار، در نهایت به پاسخ برسید.
چگونه از هوش مصنوعی برای حمله استفاده میشود؟
برخی از پروژههای جدید، از رابط برنامهنویسی (API) مدلهای زبانی استفاده میکنند تا با هدف دسترسی کامل به سرورهای هدف (Root Access)، حملاتی پیشرفته ترتیب دهند. برخی دیگر از همین مدلها برای شناسایی فرصتهای حمله در فضای آنلاین بهره میبرند.
با ترکیب ابزارهای مبتنی بر هوش مصنوعی و نرمافزارهایی که مثلاً برای دور زدن IPهای جعلی طراحی شدهاند، هکرها میتوانند نقاط ضعف سرورها را شناسایی و بهرهبرداری کنند. در این میان، مدلهای زبانی حتی متوجه نمیشوند که بخشی از یک حمله هستند، چرا که هرکدام فقط بخش کوچکی از کار را انجام میدهند.
این نوع «طراحی پاک» (Clean Room Design) شبیه یک پازل است: هر مدل بخشی از مسئله را حل میکند و در نهایت از کنار هم قرار گرفتن این قطعات، یک ابزار مخرب ساخته میشود.
قانونگذاری هنوز جا مانده است
در حالیکه برخی نهادها در تلاش برای تدوین قوانین سختگیرانهتر علیه سوءاستفاده از هوش مصنوعی هستند، هنوز نمیتوان بهراحتی تعیین کرد چه مقدار از تقصیر بر گردن مدلهای زبانی است. اثبات مسئولیت قانونی این مدلها، بهویژه در دادگاه، کاری پیچیده و زمانبر خواهد بود.
حملههای صفر روزه با کمک AI
مدلهای هوش مصنوعی امروز حتی میتوانند در میان میلیاردها خط کد در مخازن نرمافزاری عمومی، بهدنبال الگوهای آسیبپذیر بگردند و از آنها برای ساخت حملات جدید استفاده کنند. این روند میتواند به خلق نسل تازهای از حملههای موسوم به «صفر روزه» (Zero-Day) منجر شود؛ حملاتی که پیش از شناسایی توسط سازنده، از یک باگ امنیتی سوءاستفاده میکنند.
برخی کشورها ممکن است با تکیه بر این فناوری، به پیشبینی آسیبپذیریهای آینده و ساخت ابزارهای هجومی از قبل بپردازند. در چنین سناریویی، مدافعان باید همواره یک قدم عقبتر باشند و بهناچار وارد مسابقهای شوند که ممکن است رنگ و بوی آخرالزمانی داشته باشد.
هوش مصنوعی در خدمت هکرهای زرنگ
مدلهای هوش مصنوعی نهتنها میتوانند با سرعت و دقت بالا تحلیل کنند، بلکه به مرور نیاز کمتری به دخالت مستقیم انسان دارند. به همین دلیل، افرادی که اخلاق را کنار گذاشتهاند میتوانند با امکانات محدود، حملاتی در مقیاس بزرگ ترتیب دهند.
در تمرینهای امنیتی موسوم به Red Team یا حتی در فضای واقعی، نشانههایی از این نوع حملات هوشمصنوعیمحور دیده شده است.
آینده چه میشود؟
حملات سایبری با کمک هوش مصنوعی بیشتر، پیچیدهتر و سریعتر خواهند شد. از لحظهای که یک آسیبپذیری منتشر میشود، تا زمانی که مورد سوءاستفاده قرار گیرد، زمان بسیار کمی باقی میماند.