|
| کد مطلب: ۹۶۸۸۶
لینک کوتاه کپی شد

هشدار محققان درباره هوش مصنوعی ChatGPT

هشدار محققان: هکرها با دور زدن محدودیت‌های ChatGPT محتوای مخرب تولید می‌کنند

هشدار محققان درباره هوش مصنوعی ChatGPT
منبع: دیجیاتو |

در حال حاضر، دو راه برای استفاده از ChatGPT وجود دارد: از طریق رابط کاربری وب یا از طریق رابط‌های برنامه‌نویسی برنامه (API) که برای ساخت برنامه‌ها استفاده می‌شود. از طریق API، توسعه‌دهندگان می‌توانند از مدل‌های OpenAI در رابط کاربری خود استفاده کنند.

محققان می‌گویند در حالی که OpenAI محدودیت‌های محکمی برای کاربران رابط وب خود ایجاد کرده (به عنوان مثال، دیگر نمی‌توان از این ابزار برای نوشتن ایمیل فیشینگ جعل هویت یک بانک یا یک موسسه مالی کمک گرفت)، محدودیت‌هایی در هنگام استفاده از API آن وجود ندارد.

آن‌ها در این رابطه توضیح می‌دهند:

«نسخه فعلی API OpenAI توسط برنامه‌های خارجی استفاده می‌شود و معیارهای ضد سوءاستفاده بسیار کمی دارد. در نتیجه امکان ایجاد محتوای مخرب، مانند ایمیل‌های فیشینگ و کدهای بدافزار را به کاربران ارائه می‌کند.»

محققان همچنین هشدار داده‌اند که در انجمن‌های زیرزمینی اینترنت بحث‌های زیادی درباره این موضوع انجام می‌شود که نشان می‌دهد مجرمان سایبری زیادی از دور زدن محدودیت‌های ChatGPT آگاه هستند.

در همین رابطه، اخیراً نظرسنجی جدیدی که توسط شرکت بلک‌بری انجام شده بود، نشان داد که اکثر کارشناسان حوزه IT باور دارند کمتر از یک سال با اولین حمله سایبری از سوی ChatGPT فاصله داریم و این چت‌بات هوش مصنوعی با وجود تمام کارهای مفیدی که انجام می‌دهد، می‌تواند برای امنیت سیستم‌ها تهدیدآفرین باشد.

ارسال نظر

پربازدیدترین