هشدار محققان درباره هوش مصنوعی ChatGPT
هشدار محققان: هکرها با دور زدن محدودیتهای ChatGPT محتوای مخرب تولید میکنند
در حال حاضر، دو راه برای استفاده از ChatGPT وجود دارد: از طریق رابط کاربری وب یا از طریق رابطهای برنامهنویسی برنامه (API) که برای ساخت برنامهها استفاده میشود. از طریق API، توسعهدهندگان میتوانند از مدلهای OpenAI در رابط کاربری خود استفاده کنند.
محققان میگویند در حالی که OpenAI محدودیتهای محکمی برای کاربران رابط وب خود ایجاد کرده (به عنوان مثال، دیگر نمیتوان از این ابزار برای نوشتن ایمیل فیشینگ جعل هویت یک بانک یا یک موسسه مالی کمک گرفت)، محدودیتهایی در هنگام استفاده از API آن وجود ندارد.
آنها در این رابطه توضیح میدهند:
«نسخه فعلی API OpenAI توسط برنامههای خارجی استفاده میشود و معیارهای ضد سوءاستفاده بسیار کمی دارد. در نتیجه امکان ایجاد محتوای مخرب، مانند ایمیلهای فیشینگ و کدهای بدافزار را به کاربران ارائه میکند.»
محققان همچنین هشدار دادهاند که در انجمنهای زیرزمینی اینترنت بحثهای زیادی درباره این موضوع انجام میشود که نشان میدهد مجرمان سایبری زیادی از دور زدن محدودیتهای ChatGPT آگاه هستند.
در همین رابطه، اخیراً نظرسنجی جدیدی که توسط شرکت بلکبری انجام شده بود، نشان داد که اکثر کارشناسان حوزه IT باور دارند کمتر از یک سال با اولین حمله سایبری از سوی ChatGPT فاصله داریم و این چتبات هوش مصنوعی با وجود تمام کارهای مفیدی که انجام میدهد، میتواند برای امنیت سیستمها تهدیدآفرین باشد.
ارسال نظر