|
| کد مطلب: ۹۷۱۵۷
لینک کوتاه کپی شد

تغییر رویکرد شرکت‌های هوش مصنوعی به دلیل تبعیت از قوانین جدید

قوانینی مثل قانون هوش مصنوعی اتحادیه اروپا (EU’s AI Act) می‌توانند رویکرد شرکت‌های هوش مصنوعی در مورد نحوه ایجاد و به‌کارگیری سیستم‌های هوش مصنوعی در آینده را تغییر دهند.

تغییر رویکرد شرکت‌های هوش مصنوعی به دلیل تبعیت از قوانین جدید
منبع: دیجیاتو |

بر اساس قانون هوش مصنوعی نیویورک، آن دسته از فناوری‌های هوش مصنوعی یا فناوری‌های مبتنی بر الگوریتم‌ها که برای استخدام رسمی و استخدام قراردادی و فروش استفاده می‌شوند، باید قبل از استفاده‌شدن، ازنظر متعصبانه بودن یا نبودن، بررسی شوند.

باگاواتولا اعمال چنین قوانینی را ضروری می‌داند؛ خصوصاً در زمان کنونی که نقایص فنی آشکار هوش مصنوعی زایا مثل گرایش آن به ارائه حجم گسترده‌ای از اطلاعات اشتباه، در حال افزایش هستند.

او در مورد این موضوع این‌چنین می‌گوید:

استفاده از هوش مصنوعی زایا به دلیل داشتن نقایص فنی، در برخی از مکان‌ها، مثل حیطه‌هایی که اشتباهات در آنها منجر به بار آوردن هزینه‌های هنگفت می‌شوند (نظیر مراکز درمانی)، دشوار است. در ضمن سهولت ایجاد اطلاعات نادرست، منجر به ایجاد نگرانی‌های در مورد دروغ‌پراکنی و انتشار اطلاعات نادرست شده است. سیستم‌های هوش مصنوعی قبلاً تصمیماتی با پیامدهای منفی اخلاقی متعدد گرفته‌اند و هنوز هم شاهد چنین اتفاقاتی هستیم.

قوانین جدید حوزه هوش مصنوعی می‌توانند شرکت‌های فعال در این‌حوزه را در سال ۲۰۲۳ به چالش بکشاند. همچنین انتظار می‌رود امسال شاهد بحث‌وجدل‌های بیشتری در مورد این‌قوانین باشیم. حتی ممکن است میزان برگزاری دادگاه‌ها قبل از جریمه یا متهم‌شدن افراد، افزایش یابد.

البته ممکن است رقابت شرکت‌های هوش مصنوعی برای کسب جایگاهی ارزشمند در سودمندترین گروه‌های طبقه‌بندی‌های قانون‌های آینده، در این‌سال همچنان ادامه داشته باشد. گروه‌های «risk (پرخطر)» در طبقه‌بندی قانون هوش مصنوعی اتحادیه اروپا، نمونه‌ای از این‌گروه‌ها هستند.

قوانین کنونی هوش مصنوعی، سیستم‌های هوش مصنوعی را به ۴ گروه پرخطر تقسیم کرده‌اند. در هر یک از این‌گروه‌ها، سیستم‌های هوش مصنوعی دارای ویژگی‌های خاصی قرار می‌گیرند. در ضمن در هر گروه سیستم‌ها در سطح متفاوتی، با دقت بالایی بررسی‌ می‌شوند.

مثلاً الگوریتم‌های امتیازبندی اعتبار و اپلیکیشن‌های جراحی با هوش مصنوعی، در گروه سیستم‌های پرخطر (high risk) قرار گرفته‌اند. سیستم‌های هوش مصنوعی برای کسب مجوز ورود به بازار اروپا، باید یک‌‌سری استانداردهای قانونی، اخلاقی و فنی را داشته باشند

اما سیستم‌های دارای کمترین میزان خطر یا بدون خطر (minimal or no risk)، لازم نیست چنین استانداردهایی را داشته باشند. این‌ سیستم‌ها مثل سیستم‌های فیلتر اسپم‌ها و بازی‌های کامپیوتری دارای هوش مصنوعی، تنها ملزم به رعایت شفاف‌سازی هستند؛ مثلاً چنین سیستم‌هایی باید به کاربران اطلاع دهند که آنها درحال تعامل با یک سیستم هوش مصنوعی هستند.

aireg

اوس کیز (Os Keyes)، کاندیدای دکترا در دانشگاه واشنگتن در مورد تصمیم آن دسته از شرکت‌های هوش مصنوعی که مصمم به استفاده از سیستم‌های هوش مصنوعی دارای کمترین میزان خطر به‌منظور به حداقل رساندن مسئولیت‌های خود و حضورشان در زیر ذره‌بین قوانین هستند، ابراز نگرانی کرده است.

به نظر او فارغ از نگرانی‌های مرتبط با هوش مصنوعی، قانون هوش مصنوعی اتحادیه اروپا، بهترین گزینه برای بازدارندگی در حوزه هوش مصنوعی است. به اعتقاد او کنگره آمریکا تقریباً هیچ قانونی برای مقابله با عواقب بد استفاده از هوش مصنوعی وضع نکرده است.

ارسال نظر

پربازدیدترین