|
| کد مطلب: ۹۸۹۳۸
لینک کوتاه کپی شد

حملات سایبری آسان تر با کمک ChatGPT

هوش مصنوعی ChatGPT به مجرمان سایبری در تولید بدافزار و ایمیل‌های فیشینگ کمک کرده است.

حملات سایبری آسان تر با کمک ChatGPT
منبع: دیجیاتو |

کارشناسان امنیت سایبری می‌گویند شواهد استفاده از ChatGPT توسط مجرمان حالا به‌وضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده می‌کنند. ولی همین مسئله می‌تواند شرکت‌های تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آن‌ها احتمالاً مصونیت قضایی نخواهند داشت.

به گزارش اینسایدر، چت‌بات ChatGPT کارهای گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام می‌دهد و می‌تواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق می‌کند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، می‌گوید شواهد استفاده از هوش مصنوعی برای تولید کد در  حملات باج‌افزاری  مشهود است.

شایکویچ و تیمش در انتهای سال 2021 شروع به مطالعه درباره پتانسیل‌های هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها می‌توانند  ایمیل فیشینگ  و  کدهای مخرب  تولید کنند. شایکویچ می‌گوید تیم او می‌خواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده می‌کنند یا صرفاً به‌شکل تئوری آن‌ها را امتحان کرده‌اند.

ChatGPT واقعاً به مجرمان سایبری کمک می‌کند

از آن‌جایی که به‌راحتی نمی‌توان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسی‌های بیشتر به دارک وب مراجعه کردند. آن‌ها در تاریخ 21 دسامبر 2022 متوجه شدند که مجرمان از این چت‌بات برای ساخت یک  اسکریپت پایتون  استفاده کرده‌اند که در حملات سایبری استفاده می‌شود. شایکویچ می‌گوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.

حالا سوءاستفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزارها می‌توانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیاده‌سازی نمایند. پیش‌تر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آن‌ها، 74 درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.

اما از سوی دیگر، کمک ابزارهای هوش مصنوعی به مجرمان سایبری می‌تواند برای شرکت‌های تولیدکننده آن‌ها مشکل‌ساز باشد. اکثر شرکت‌های فناوری تحت حمایت ماده 230 قانون شایستگی ارتباطات از مسئولیت‌پذیری در قبال نشر محتوا در پلتفرم‌های خود مصون هستند. اما درباره چت‌بات‌ها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه می‌شود، شرکت‌هایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.

ارسال نظر

پربازدیدترین