|
| کد مطلب: ۱۱۱۵۱۶
لینک کوتاه کپی شد

هوش مصنوعی؛ بازی با آتش است!

زمانی که انسان ها حدود 1.5 میلیون سال پیش آتش را کشف کردند، احتمالاً می دانستند که چیز خوبی در اختیار دارند، اما آنها احتمالاً خیلی سریع نقاط منفی این کشف را یافتند، نزدیک شدن بیش از حد و سوختن، به راه انداختن تصادفی آتش سوزی، استنشاق دود یا حتی سوزاندن روستا. اینها خطرات جزئی نبودند، اما بازگشتی هم نداشتند. خوشبختانه ما توانستیم از قدرت آتش برای همیشه استفاده کنیم.

هوش مصنوعی؛ بازی با آتش است!

امروزه، هوش مصنوعی (AI) می‌تواند مانند آتش دگرگون کننده باشد؛ اما چه بخواهیم چه نخواهیم، با توجه به وضعیت ژئوپلیتیک جهانی، هیچ بازگشتی به عقب یا حتی کاهش سرعت وجود ندارد.

هوش مصنوعی فقط یک نوآوری تکنولوژیک دیگر نیست، بلکه نیرویی است که جهان را به گونه‌ای تغییر می‌دهد که حتی نمی‌توانیم تصور کنیم. با این حال، ما باید مراقب خطرات مرتبط با این فناوری باشیم و آنها را به درستی مدیریت کنیم.

اولین قدم در مدیریت ریسک های مرتبط با هوش مصنوعی، تعیین استانداردهایی برای استفاده از هوش مصنوعی است. این می تواند توسط دولت ها یا گروه های در راس قدرت انجام شود و می‌تواند اجباری یا داوطلبانه باشند. در حالی که استانداردهای داوطلبانه خوب هستند، واقعیت این است که شرکت هایی که بیشترین مسئولیت را دارند تمایل دارند از قوانین و راهنمایی پیروی کنند، در حالی که دیگران به آن توجهی نمی کنند. برای منافع جامعه، همه باید از راهنمایی پیروی کنند.

در مورد اینکه آیا دولت‌ها یا گروه‌ها باید پیشرو باشند، پاسخ هر دو است. واقعیت این است که تنها دولت‌ها توان لازم را برای الزام‌آور ساختن قوانین و تشویق یا ترغیب سایر دولت‌ها در سطح جهانی برای مشارکت دارند. با وجود این، دولت‌ها به‌طور بدنامی آهسته حرکت می‌کنند و مستعد جریان‌های متقابل سیاسی هستند. بنابراین، گروه های صنعتی باید مشارکت داشته باشند و نقش پیشرو در شکل دادن به تفکر و ایجاد گسترده ترین پایگاه ایفا کنند. در نهایت برای رسیدن به اهداف خود نیازمند مشارکت عمومی و خصوصی هستیم.

هوش مصنوعی؛ بازی با آتش است!

در مورد هوش مصنوعی دو چیز وجود دارد که باید تحت کنترل باشد؛ استفاده از آن و ایجاد آن. هوش مصنوعی، مانند تمام نوآوری های تکنولوژیکی، می تواند با نیت خوب یا با نیت بد مورد استفاده قرار گیرد. مقاصد مهم هستند و سطح حکمرانی باید با سطح ریسک منطبق باشد. با این حال، برخی از انواع هوش مصنوعی ذاتا آنقدر خطرناک هستند که نیاز به مدیریت دقیق یا محدود دارند.

واقعیت این است که ما امروز به اندازه کافی نمی‌دانیم که بتوانیم همه مقررات و قوانین را بنویسیم، بنابراین آنچه ما نیاز داریم یک نقطه شروع خوب و برخی ارگان‌های معتبر است که برای صدور قوانین جدید در صورت لزوم پیش قدم شوند. مدیریت ریسک هوش مصنوعی و راهنمایی معتبر باید سریع و زیرک باشد. در غیر این صورت از مسیر نوآوری بسیار عقب می ماند و بی ارزش می شود. صنایع موجود و ارگان های دولتی بسیار کند حرکت می کنند، بنابراین باید رویکردهای جدیدی ایجاد شود که بتواند با سرعت بیشتری پیش رود.

گروه های مختلف جهانی به طور فعال دیدگاه های خود را بیان کرده و خروجی های خود را منتشر کرده اند. نمونه های قابل توجه عبارتند از چارچوب مدیریت ریسک هوش مصنوعی که اخیراً منتشر شده است از مؤسسه ملی علوم و فناوری مستقر در ایالات متحده (NIST) و قانون پیشنهادی اتحادیه اروپا برای هوش مصنوعی. بیشتر آنها ماهیتی داوطلبانه دارند.

مسیر قطعاً پر دست انداز خواهد بود، اما انسان ها در نهایت پیروز خواهند شد. 1.5 میلیون سال دیگر، اجداد ما به گذشته نگاه خواهند کرد و فکر خواهند کرد که سخت بود، اما در نهایت ما آن را درست انجام دادیم.

ارسال نظر

پربازدیدترین