آیا برای جلوگیری از آسیب احتمالی دیر شده است؟


به نظر می رسد همین دیروز (اگرچه تقریباً شش ماه می گذرد) از زمانی که OpenAI ChatGPT را راه اندازی کرد و شروع به خبرساز شدن کرد.

ChatGPT در عرض سه ماه به 100 میلیون کاربر رسید و آن را به سریع ترین برنامه در حال رشد در چند دهه اخیر تبدیل کرد. برای مقایسه، TikTok نه ماه – و اینستاگرام دو سال و نیم – طول کشید تا به همان نقطه عطف رسید.

اکنون ChatGPT می‌تواند از GPT-4 به همراه مرور اینترنت و افزونه‌های برندهایی مانند Expedia، Zapier، Zillow و موارد دیگر برای پاسخ به درخواست‌های کاربر استفاده کند.

شرکت های بزرگ فناوری مانند مایکروسافت با OpenAI برای ایجاد راه حل های مشتری مبتنی بر هوش مصنوعی شریک شده اند. گوگل، متا و دیگران در حال ساخت مدل های زبان و محصولات هوش مصنوعی خود هستند.

بیش از 27000 نفر – از جمله مدیران عامل فناوری، استادان، دانشمندان محقق و سیاستمداران – طوماری را برای توقف توسعه سیستم های هوش مصنوعی قدرتمندتر از GPT-4 امضا کرده اند.

اکنون، ممکن است این سوال پیش نیاید که آیا دولت ایالات متحده باید هوش مصنوعی را تنظیم کند یا خیر – اگر هنوز خیلی دیر نشده است.

در زیر تحولات اخیر در مقررات هوش مصنوعی و چگونگی تأثیر آنها بر آینده پیشرفت هوش مصنوعی آورده شده است.

سازمان های فدرال متعهد به مبارزه با تعصب هستند

چهار آژانس کلیدی فدرال ایالات متحده – دفتر حمایت مالی از مصرف کننده (CFPB)، بخش حقوق مدنی وزارت دادگستری (DOJ-CRD)، کمیسیون فرصت های شغلی برابر (EEOC) و کمیسیون تجارت فدرال (FTC) – بیانیه ای را در مورد تعهد قوی به مهار تعصب و تبعیض در سیستم های خودکار و هوش مصنوعی.

این آژانس‌ها بر قصد خود برای اعمال مقررات موجود برای این فناوری‌های نوظهور تاکید کرده‌اند تا اطمینان حاصل کنند که آنها از اصول انصاف، برابری و عدالت حمایت می‌کنند.

  • CFPB، مسئول حمایت از مصرف کننده در بازار مالی، مجدداً تأیید کرد که قوانین مالی مصرف کننده موجود برای همه فناوری ها، صرف نظر از پیچیدگی یا تازگی آنها، اعمال می شود. این آژانس در موضع خود شفاف بوده است که ماهیت نوآورانه فناوری هوش مصنوعی نمی تواند به عنوان دفاعی برای نقض این قوانین استفاده شود.
  • DOJ-CRD، آژانسی که وظیفه حفاظت از تبعیض در جنبه‌های مختلف زندگی را بر عهده دارد، قانون مسکن منصفانه را برای خدمات غربالگری مستاجر مبتنی بر الگوریتم اعمال می‌کند. این نشان می دهد که چگونه می توان از قوانین حقوق مدنی موجود برای خودکارسازی سیستم ها و هوش مصنوعی استفاده کرد.
  • EEOC که مسئول اجرای قوانین ضد تبعیض در استخدام است، دستورالعملی را در مورد نحوه اعمال قانون آمریکایی های دارای معلولیت در مورد هوش مصنوعی و نرم افزارهای مورد استفاده در تصمیم گیری های استخدامی صادر کرد.
  • FTC، که از مصرف کنندگان در برابر اقدامات تجاری ناعادلانه محافظت می کند، نسبت به پتانسیل ابزارهای هوش مصنوعی که ذاتا مغرضانه، نادرست یا تبعیض آمیز هستند ابراز نگرانی کرد. این سازمان هشدار داده است که استقرار هوش مصنوعی بدون ارزیابی ریسک کافی یا ارائه ادعاهای غیرمستند در مورد هوش مصنوعی می تواند به عنوان نقض قانون FTC تلقی شود.

به عنوان مثال، مرکز هوش مصنوعی و سیاست دیجیتال شکایتی را به FTC در مورد انتشار GPT-4 توسط OpenAI ارائه کرده است، محصولی که “غرض‌ورانه، فریبنده است و خطری برای حریم خصوصی و امنیت عمومی است.”

سناتور از شرکت های هوش مصنوعی در مورد امنیت و سوء استفاده سؤال می کند

سناتور آمریکایی مارک آر وارنر نامه هایی به شرکت های پیشرو هوش مصنوعی از جمله Anthropic، Apple، Google، Meta، Microsoft، Midjourney و OpenAI ارسال کرد.

وارنر در این نامه نگرانی های خود را در مورد ملاحظات امنیتی در توسعه و استفاده از سیستم های هوش مصنوعی (AI) ابراز کرده است. وی از گیرندگان نامه درخواست کرد که این اقدامات امنیتی را در اولویت کار خود قرار دهند.

وارنر تعدادی از خطرات امنیتی خاص هوش مصنوعی مانند مشکلات زنجیره تامین داده ها، حملات مسمومیت داده ها، نمونه های متخاصم و سوء استفاده احتمالی یا استفاده مخرب از سیستم های هوش مصنوعی را برجسته کرد. این نگرانی‌ها در برابر پس‌زمینه ادغام فزاینده هوش مصنوعی در بخش‌های مختلف اقتصاد، مانند مراقبت‌های بهداشتی و مالی، ایجاد شد که بر نیاز به اقدامات احتیاطی امنیتی تأکید می‌کند.

در این نامه 16 سوال در مورد اقدامات انجام شده برای تضمین امنیت هوش مصنوعی مطرح شده است. همچنین مستلزم نیاز به سطحی از مقررات در این زمینه برای جلوگیری از اثرات مضر و اطمینان از عدم پیشرفت هوش مصنوعی بدون پادمان های مناسب است.

از شرکت‌های هوش مصنوعی خواسته شد تا 26 می 2023 پاسخ دهند.

دیدار کاخ سفید با رهبران هوش مصنوعی

دولت بایدن هریس ابتکاراتی را برای تقویت نوآوری مسئولانه در هوش مصنوعی (AI)، حمایت از حقوق شهروندان و تضمین ایمنی اعلام کرد.

این اقدامات با انگیزه دولت فدرال برای مدیریت خطرات و فرصت های مرتبط با هوش مصنوعی هماهنگ است.

هدف کاخ سفید این است که مردم و جوامع را در اولویت قرار دهد و نوآوری هوش مصنوعی را برای منافع عمومی و حفاظت از جامعه، امنیت و اقتصاد ترویج کند.

مقامات ارشد دولت، از جمله معاون رئیس جمهور کامالا هریس، با رهبران آلفابت، آنتروپیک، مایکروسافت، و OpenAI دیدار کردند تا در مورد این تعهد و نیاز به نوآوری مسئولانه و اخلاقی صحبت کنند.

به طور خاص، آنها در مورد تعهد شرکت ها برای اطمینان از ایمنی محصولات LLM و هوش مصنوعی قبل از استقرار عمومی بحث کردند.

گام‌های جدید به‌طور ایده‌آل مکمل اقدامات گسترده‌ای است که قبلاً توسط دولت برای ارتقای نوآوری مسئولانه اتخاذ شده است، مانند منشور حقوق هوش مصنوعی، چارچوب مدیریت ریسک هوش مصنوعی، و برنامه‌هایی برای یک منبع تحقیقاتی ملی هوش مصنوعی.

اقدامات دیگری برای محافظت از کاربران در عصر هوش مصنوعی انجام شده است، مانند دستور اجرایی برای حذف تعصب در طراحی و استفاده از فناوری‌های جدید، از جمله هوش مصنوعی.

کاخ سفید خاطرنشان کرد که FTC، CFPB، EEOC و DOJ-CRD به طور جمعی متعهد شده اند که از اختیارات قانونی خود برای محافظت از آمریکایی ها در برابر آسیب های مرتبط با هوش مصنوعی استفاده کنند.

دولت همچنین به نگرانی های امنیت ملی مربوط به امنیت سایبری هوش مصنوعی و امنیت زیستی پرداخت.

ابتکارات جدید شامل بودجه 140 میلیون دلاری بنیاد ملی علوم برای هفت موسسه تحقیقاتی ملی هوش مصنوعی، ارزیابی عمومی سیستم‌های هوش مصنوعی مولد موجود، و راهنمایی سیاست‌های جدید دفتر مدیریت و بودجه در مورد استفاده از هوش مصنوعی توسط دولت ایالات متحده است.

نظارت بر شنوایی هوش مصنوعی مقررات هوش مصنوعی را بررسی می کند

اعضای کمیته فرعی حریم خصوصی، فناوری، و قانون یک جلسه استماع نظارت بر هوش مصنوعی با اعضای برجسته جامعه هوش مصنوعی برگزار کردند تا در مورد مقررات هوش مصنوعی بحث کنند.

نزدیک شدن به مقررات با دقت

کریستینا مونتگومری، مدیر ارشد حریم خصوصی و اعتماد IBM تأکید کرد که در حالی که هوش مصنوعی به طور قابل توجهی پیشرفت کرده است و اکنون در هر دو حوزه مصرف کننده و کسب و کار یکپارچه شده است، افزایش توجه عمومی که به آن جلب می شود، مستلزم ارزیابی دقیق تأثیرات بالقوه اجتماعی، از جمله سوگیری و سوء استفاده است.

او از نقش دولت در توسعه یک چارچوب نظارتی قوی حمایت کرد و رویکرد “تنظیم دقیق” IBM را پیشنهاد کرد که به جای خود فناوری بر قوانین مورد استفاده خاص تمرکز دارد و اجزای اصلی آن را تشریح کرد.

مونتگومری همچنین چالش‌های سیستم‌های هوش مصنوعی مولد را تأیید کرد و از رویکرد نظارتی مبتنی بر ریسک که مانع نوآوری نمی‌شود، دفاع کرد. او بر نقش حیاتی کسب‌وکارها در استقرار مسئولانه هوش مصنوعی، تشریح شیوه‌های حاکمیتی IBM و ضرورت وجود یک هیئت اخلاق هوش مصنوعی در همه شرکت‌های مرتبط با هوش مصنوعی تاکید کرد.

پرداختن به اثرات اقتصادی بالقوه GPT-4 و فراتر از آن

سام آلتمن، مدیر عامل OpenAI، تعهد عمیق این شرکت به ایمنی، امنیت سایبری و پیامدهای اخلاقی فناوری‌های هوش مصنوعی آن را تشریح کرد.

به گفته آلتمن، این شرکت آزمایش‌های نفوذ داخلی و شخص ثالث و ممیزی منظم کنترل‌های امنیتی خود را انجام می‌دهد. او اضافه کرد که OpenAI همچنین راهبردهای جدیدی را برای تقویت سیستم های هوش مصنوعی خود در برابر تهدیدات سایبری نوظهور پیشگام است.

به نظر می‌رسد آلتمن به‌ویژه نگران تأثیرات اقتصادی هوش مصنوعی بر بازار کار است، زیرا ChatGPT می‌تواند برخی از مشاغل را خودکار کند. تحت رهبری آلتمن، OpenAI با اقتصاددانان و دولت ایالات متحده برای ارزیابی این تأثیرات و طراحی سیاست هایی برای کاهش آسیب های احتمالی کار می کند.

آلتمن به تلاش‌های پیشگیرانه آنها در تحقیق در مورد ابزارهای خط‌مشی و حمایت از برنامه‌هایی مانند Worldcoin اشاره کرد که می‌تواند ضربه اختلالات فناوری را در آینده کاهش دهد، مانند مدرن‌سازی مزایای بیکاری و ایجاد برنامه‌های کمک به کارگران. (در همین حال، یک صندوق در ایتالیا اخیراً 30 میلیون یورو برای سرمایه گذاری در خدمات برای کارگرانی که بیشتر در معرض خطر جابجایی ناشی از هوش مصنوعی هستند، رزرو کرده است.)

آلتمن بر نیاز به مقررات موثر هوش مصنوعی تأکید کرد و متعهد شد که OpenAI همچنان از کمک به سیاستگذاران حمایت کند. آلتمن تأیید کرد که هدف این شرکت کمک به تدوین مقرراتی است که هم ایمنی را تحریک می کند و هم امکان دسترسی گسترده به مزایای هوش مصنوعی را فراهم می کند.

او بر اهمیت مشارکت جمعی از ذینفعان مختلف، استراتژی های نظارتی جهانی و همکاری بین المللی برای اطمینان از تکامل ایمن و سودمند فناوری هوش مصنوعی تاکید کرد.

بررسی پتانسیل آسیب هوش مصنوعی

گری مارکوس، پروفسور روانشناسی و علوم عصبی در دانشگاه نیویورک، نگرانی های فزاینده خود را در مورد سوء استفاده احتمالی از هوش مصنوعی، به ویژه مدل های زبان قدرتمند و تأثیرگذار مانند GPT-4 ابراز کرد.

او نگرانی خود را با نشان دادن اینکه چگونه او و یک مهندس نرم افزار سیستم را دستکاری کردند تا یک روایت کاملا ساختگی در مورد بیگانگانی که سنای ایالات متحده را کنترل می کنند، به تصویر بکشد.

این سناریوی گویا خطر سیستم‌های هوش مصنوعی را به‌طور قانع‌کننده داستان‌سازی می‌کند و هشداری را در مورد پتانسیل استفاده از چنین فناوری در فعالیت‌های مخرب – مانند تداخل در انتخابات یا دستکاری در بازار، به صدا در می‌آورد.

مارکوس غیرقابل اعتماد بودن سیستم‌های هوش مصنوعی فعلی را که می‌تواند منجر به پیامدهای اجتماعی جدی شود، از ترویج اتهامات بی‌اساس گرفته تا ارائه توصیه‌های بالقوه مضر، برجسته کرد.

به عنوان مثال یک ربات چت منبع باز بود که به نظر می رسید بر تصمیم یک فرد برای گرفتن زندگی خود تأثیر می گذارد.

مارکوس همچنین به ظهور «داتوکراسی» اشاره کرد، جایی که هوش مصنوعی می‌تواند به طرز ماهرانه‌ای نظرات را شکل دهد و احتمالاً از تأثیر رسانه‌های اجتماعی پیشی بگیرد. یکی دیگر از پیشرفت‌های هشداردهنده‌ای که او مورد توجه قرار داد، انتشار سریع افزونه‌های هوش مصنوعی، مانند پلاگین‌های ChatGPT OpenAI و AutoGPT متعاقب آن بود که دسترسی مستقیم به اینترنت، قابلیت کدنویسی و قدرت‌های خودکارسازی پیشرفته‌ای دارند که به طور بالقوه نگرانی‌های امنیتی را تشدید می‌کند.

مارکوس شهادت خود را با فراخوانی برای همکاری بیشتر بین دانشمندان مستقل، شرکت‌های فناوری و دولت‌ها برای اطمینان از ایمنی و استفاده مسئولانه از فناوری هوش مصنوعی پایان داد. او هشدار داد که در حالی که هوش مصنوعی فرصت‌های بی‌سابقه‌ای را ارائه می‌کند، فقدان مقررات کافی، بی‌مسئولیت شرکتی و غیرقابل اعتماد بودن ذاتی ممکن است ما را به یک “طوفان کامل” بکشاند.

آیا ما می توانیم هوش مصنوعی را تنظیم کنیم؟

همانطور که فناوری‌های هوش مصنوعی مرزها را فراتر می‌گذارند، درخواست‌ها برای تنظیم مقررات همچنان افزایش می‌یابد.

در شرایطی که مشارکت‌های فناوری بزرگ در حال افزایش است و برنامه‌های کاربردی در حال گسترش هستند، زنگ خطر را به صدا در می‌آورد: آیا برای تنظیم هوش مصنوعی خیلی دیر شده است؟

آژانس‌های فدرال، کاخ سفید و اعضای کنگره باید به بررسی چشم‌انداز فوری، پیچیده و بالقوه خطرناک هوش مصنوعی ادامه دهند و در عین حال اطمینان حاصل کنند که پیشرفت‌های امیدوارکننده هوش مصنوعی ادامه دارد و رقابت فناوری بزرگ به طور کامل خارج از بازار تنظیم نمی‌شود.


تصویر ویژه: کاترین ولز / شاتر استوک





منبع