تغییر رویکرد شرکتهای هوش مصنوعی به دلیل تبعیت از قوانین جدید
قوانینی مثل قانون هوش مصنوعی اتحادیه اروپا (EU’s AI Act) میتوانند رویکرد شرکتهای هوش مصنوعی در مورد نحوه ایجاد و بهکارگیری سیستمهای هوش مصنوعی در آینده را تغییر دهند.
بر اساس قانون هوش مصنوعی نیویورک، آن دسته از فناوریهای هوش مصنوعی یا فناوریهای مبتنی بر الگوریتمها که برای استخدام رسمی و استخدام قراردادی و فروش استفاده میشوند، باید قبل از استفادهشدن، ازنظر متعصبانه بودن یا نبودن، بررسی شوند.
باگاواتولا اعمال چنین قوانینی را ضروری میداند؛ خصوصاً در زمان کنونی که نقایص فنی آشکار هوش مصنوعی زایا مثل گرایش آن به ارائه حجم گستردهای از اطلاعات اشتباه، در حال افزایش هستند.
او در مورد این موضوع اینچنین میگوید:
استفاده از هوش مصنوعی زایا به دلیل داشتن نقایص فنی، در برخی از مکانها، مثل حیطههایی که اشتباهات در آنها منجر به بار آوردن هزینههای هنگفت میشوند (نظیر مراکز درمانی)، دشوار است. در ضمن سهولت ایجاد اطلاعات نادرست، منجر به ایجاد نگرانیهای در مورد دروغپراکنی و انتشار اطلاعات نادرست شده است. سیستمهای هوش مصنوعی قبلاً تصمیماتی با پیامدهای منفی اخلاقی متعدد گرفتهاند و هنوز هم شاهد چنین اتفاقاتی هستیم.
قوانین جدید حوزه هوش مصنوعی میتوانند شرکتهای فعال در اینحوزه را در سال ۲۰۲۳ به چالش بکشاند. همچنین انتظار میرود امسال شاهد بحثوجدلهای بیشتری در مورد اینقوانین باشیم. حتی ممکن است میزان برگزاری دادگاهها قبل از جریمه یا متهمشدن افراد، افزایش یابد.
البته ممکن است رقابت شرکتهای هوش مصنوعی برای کسب جایگاهی ارزشمند در سودمندترین گروههای طبقهبندیهای قانونهای آینده، در اینسال همچنان ادامه داشته باشد. گروههای «risk (پرخطر)» در طبقهبندی قانون هوش مصنوعی اتحادیه اروپا، نمونهای از اینگروهها هستند.
قوانین کنونی هوش مصنوعی، سیستمهای هوش مصنوعی را به ۴ گروه پرخطر تقسیم کردهاند. در هر یک از اینگروهها، سیستمهای هوش مصنوعی دارای ویژگیهای خاصی قرار میگیرند. در ضمن در هر گروه سیستمها در سطح متفاوتی، با دقت بالایی بررسی میشوند.
مثلاً الگوریتمهای امتیازبندی اعتبار و اپلیکیشنهای جراحی با هوش مصنوعی، در گروه سیستمهای پرخطر (high risk) قرار گرفتهاند. سیستمهای هوش مصنوعی برای کسب مجوز ورود به بازار اروپا، باید یکسری استانداردهای قانونی، اخلاقی و فنی را داشته باشند
اما سیستمهای دارای کمترین میزان خطر یا بدون خطر (minimal or no risk)، لازم نیست چنین استانداردهایی را داشته باشند. این سیستمها مثل سیستمهای فیلتر اسپمها و بازیهای کامپیوتری دارای هوش مصنوعی، تنها ملزم به رعایت شفافسازی هستند؛ مثلاً چنین سیستمهایی باید به کاربران اطلاع دهند که آنها درحال تعامل با یک سیستم هوش مصنوعی هستند.
اوس کیز (Os Keyes)، کاندیدای دکترا در دانشگاه واشنگتن در مورد تصمیم آن دسته از شرکتهای هوش مصنوعی که مصمم به استفاده از سیستمهای هوش مصنوعی دارای کمترین میزان خطر بهمنظور به حداقل رساندن مسئولیتهای خود و حضورشان در زیر ذرهبین قوانین هستند، ابراز نگرانی کرده است.
به نظر او فارغ از نگرانیهای مرتبط با هوش مصنوعی، قانون هوش مصنوعی اتحادیه اروپا، بهترین گزینه برای بازدارندگی در حوزه هوش مصنوعی است. به اعتقاد او کنگره آمریکا تقریباً هیچ قانونی برای مقابله با عواقب بد استفاده از هوش مصنوعی وضع نکرده است.
ارسال نظر