با افزایش نگرانی های هوش مصنوعی، مدیر عامل OpenAI به تحقیقات FTC پاسخ می دهد


سام آلتمن، مدیر عامل OpenAI، به درخواست کمیسیون تجارت فدرال به عنوان بخشی از تحقیقات برای تعیین اینکه آیا شرکت در اقدامات ناعادلانه یا فریبنده مربوط به حریم خصوصی، امنیت داده ها و خطرات آسیب مصرف کننده، به ویژه مرتبط با شهرت، شرکت کرده است، پاسخ داد.

FTC اطلاعاتی را از OpenAI درخواست کرده است که مربوط به ژوئن 2020 است، همانطور که در یک سند فاش شده توسط واشنگتن پست فاش شده است.

با افزایش نگرانی های هوش مصنوعی، مدیر عامل OpenAI به تحقیقات FTC پاسخ می دهدتصویر از واشنگتن پست، ژوئیه 2023

موضوع بررسی: آیا OpenAI بند 5 قانون FTC را نقض کرده است؟

اسنادی که OpenAI باید ارائه کند باید شامل جزئیاتی در مورد آموزش مدل زبان بزرگ (LLM)، اصلاح، تقویت از طریق بازخورد انسانی، قابلیت اطمینان پاسخ، و سیاست‌ها و شیوه‌های مربوط به حریم خصوصی مصرف‌کننده، امنیت، و کاهش خطر باشد.

نگرانی فزاینده FTC در مورد هوش مصنوعی مولد

بررسی رویه های یک شرکت بزرگ هوش مصنوعی جای تعجب ندارد. علاقه FTC به خطرات هوش مصنوعی مولد از زمانی که ChatGPT به سرعت محبوبیت پیدا کرد، در حال افزایش است.

توجه به فناوری تصمیم گیری خودکار

در آوریل 2021، FTC دستورالعمل‌هایی در مورد هوش مصنوعی (AI) و الگوریتم‌ها منتشر کرد و به شرکت‌ها هشدار داد که سیستم‌های هوش مصنوعی خود را با قوانین حمایت از مصرف‌کننده مطابقت دهند.

بخش 5 قانون FTC، قانون گزارش اعتبار منصفانه و قانون فرصت های اعتباری برابر را به عنوان قوانین مهم برای توسعه دهندگان و کاربران هوش مصنوعی ذکر کرد.

FTC هشدار داد که الگوریتم‌هایی که بر اساس داده‌های مغرضانه یا منطق معیوب ساخته شده‌اند، می‌توانند منجر به نتایج تبعیض آمیز شوند، حتی اگر ناخواسته باشند.

FTC بهترین شیوه ها را برای توسعه هوش مصنوعی اخلاقی بر اساس تجربه خود در اجرای قوانین در برابر اعمال ناعادلانه، فریب و تبعیض تشریح کرد.

توصیه‌ها شامل سیستم‌های آزمایش برای تعصب، فعال کردن ممیزی‌های مستقل، محدود کردن ادعاهای بازاریابی اغراق‌آمیز، و سنجش آسیب‌های اجتماعی در مقابل منافع است.

دستورالعمل هشدار می دهد: “اگر الگوریتم شما منجر به تبعیض اعتباری علیه یک طبقه محافظت شده شود، ممکن است با شکایتی مبنی بر نقض قانون FTC و ECOA روبرو شوید.”

AI در چک

FTC به شرکت‌های هوش مصنوعی درباره راهنمایی‌های هوش مصنوعی خود از سال 2021 در رابطه با ادعاهای بازاریابی اغراق‌آمیز یا غیرمستند در مورد قابلیت‌های هوش مصنوعی یادآوری کرد.

در پست فوریه 2023، این سازمان به بازاریابان هشدار داد که در هیاهوی هوش مصنوعی غرق نشوند و قول هایی بدهند که محصولاتشان نمی توانند عمل کنند.

مسائل رایج ذکر شده: ادعای اینکه هوش مصنوعی می تواند بیش از آنچه فناوری فعلی اجازه می دهد انجام دهد، انجام مقایسه های پشتیبانی نشده با محصولات غیر AI و عدم آزمایش برای خطرات و سوگیری ها.

FTC تأکید کرد که بازاریابی نادرست یا فریبنده صرف نظر از پیچیدگی فناوری، رفتار غیرقانونی است.

این یادآوری چند هفته پس از آن بود که ChatGPT OpenAI به 100 میلیون کاربر رسید.

همچنین FTC یک لیست شغلی برای فن‌شناسان در این زمان – از جمله کسانی که دارای تخصص هوش مصنوعی هستند – برای حمایت از تحقیقات، ابتکارات سیاست‌گذاری و تحقیقات در مورد حمایت از مصرف‌کننده و رقابت در صنعت فناوری منتشر کرد.

Deepfakes و فریب

حدود یک ماه بعد، در ماه مارس، FTC هشدار داد که ابزارهای مولد هوش مصنوعی مانند چت بات ها و دیپ فیک ها در صورت استقرار غیرمسئولانه می توانند کلاهبرداری گسترده را تسهیل کنند.

این به توسعه دهندگان و شرکت هایی که از رسانه های مصنوعی و هوش مصنوعی مولد استفاده می کنند هشدار داد تا خطرات ذاتی سوء استفاده را در نظر بگیرند.

این آژانس گفت بازیگران بد می توانند از محتوای واقعی اما جعلی این سیستم های هوش مصنوعی برای کلاهبرداری های فیشینگ، سرقت هویت، اخاذی و سایر آسیب ها استفاده کنند.

در حالی که برخی از کاربردها ممکن است سودمند باشد، FTC از شرکت ها خواست تا با توجه به بهره برداری جنایی قابل پیش بینی، ساخت یا فروش چنین ابزارهای هوش مصنوعی را بررسی کنند.

FTC توصیه کرد که شرکت هایی که به توسعه یا استفاده از هوش مصنوعی مولد ادامه می دهند باید اقدامات احتیاطی قوی برای جلوگیری از سوء استفاده انجام دهند.

همچنین نسبت به استفاده از رسانه های مصنوعی در بازاریابی گمراه کننده و عدم افشای زمانی که مصرف کنندگان با چت ربات های هوش مصنوعی در مقابل افراد واقعی تعامل دارند، هشدار داد.

هوش مصنوعی نرم افزارهای مخرب را پخش می کند

در ماه آوریل، FTC فاش کرد که چگونه مجرمان سایبری از علاقه به هوش مصنوعی برای انتشار بدافزار از طریق تبلیغات جعلی سوء استفاده کردند.

تبلیغات جعلی ابزارهای هوش مصنوعی و نرم افزارهای دیگر را در رسانه های اجتماعی و موتورهای جستجو تبلیغ می کردند.

کلیک کردن روی این تبلیغات، کاربران را به سایت‌های شبیه‌سازی‌شده هدایت می‌کند که بدافزار را دانلود می‌کنند یا از درهای پشتی برای آلوده کردن دستگاه‌ها به‌طور ناشناخته سوءاستفاده می‌کنند. اطلاعات دزدیده شده سپس در وب تاریک فروخته می شد یا برای دسترسی به حساب های آنلاین قربانیان استفاده می شد.

برای جلوگیری از هک شدن، FTC توصیه کرد روی تبلیغات نرم افزار کلیک نکنید.

در صورت آلوده شدن، کاربران باید ابزارهای امنیتی و سیستم عامل ها را به روز کنند، سپس مراحل حذف بدافزار یا بازیابی حساب های در معرض خطر را دنبال کنند.

FTC به مردم هشدار داد که نسبت به گسترش پیچیده تر بدافزارهای مجرمان سایبری از طریق شبکه های تبلیغاتی احتیاط کنند.

سازمان های فدرال برای مقابله با مقررات هوش مصنوعی متحد می شوند

نزدیک به پایان ماه آوریل، چهار آژانس فدرال – دفتر حمایت مالی از مصرف کننده (CFPB)، بخش حقوق مدنی وزارت دادگستری (DOJ)، کمیسیون فرصت های شغلی برابر (EEOC) و FTC – بیانیه ای در مورد چگونگی انجام این کار منتشر کردند. نظارت بر توسعه هوش مصنوعی و اجرای قوانین علیه تبعیض و سوگیری در سیستم های خودکار.

این آژانس‌ها بر اساس قوانین موجود در مورد حقوق مدنی، وام‌دهی منصفانه، فرصت‌های برابر و حمایت از مصرف‌کننده، بر هوش مصنوعی تاکید کردند.

آنها با هم هشدار دادند که سیستم‌های هوش مصنوعی می‌توانند به دلیل داده‌های ناقص، مدل‌های غیرشفاف و انتخاب‌های طراحی نامناسب، تعصب غیرقانونی را تداوم بخشند.

هدف این مشارکت ترویج نوآوری هوش مصنوعی مسئولانه است که دسترسی، کیفیت و کارایی مصرف کننده را بدون نقض حفاظت های طولانی مدت افزایش می دهد.

هوش مصنوعی و اعتماد مصرف کننده

در ماه مه، FTC به شرکت‌ها درباره استفاده از ابزارهای جدید هوش مصنوعی مانند ربات‌های گفتگو برای دستکاری ناعادلانه تصمیمات مصرف‌کننده هشدار داد.

پس از شرح وقایع فیلم سابق ماشین، FTC ادعا کرد که متقاعد کردن انسان مانند ربات های چت هوش مصنوعی می تواند افراد را به سمت انتخاب های مضر در مورد امور مالی، بهداشت، آموزش، مسکن و شغل سوق دهد.

اگرچه لزوماً عمدی نیست، FTC گفت عناصر طراحی که از اعتماد انسان به ماشین‌ها برای فریب دادن مصرف‌کنندگان سوء استفاده می‌کنند، طبق قانون FTC، اعمال ناعادلانه و فریبنده هستند.

این آژانس به شرکت‌ها توصیه کرد که از تغییر شکل بیش از حد چت ربات‌ها اجتناب کنند و از افشای تبلیغات پولی که در تعاملات هوش مصنوعی وجود دارد، اطمینان حاصل کنند.

با افزایش پذیرش هوش مصنوعی مولد، هشدار FTC به شرکت ها هشدار می دهد تا به طور فعال اثرات اجتماعی پایین دستی را ارزیابی کنند.

آن دسته از ابزارهایی که عجله به بازار می کنند بدون بررسی اخلاقی یا حمایت های مناسب، اقدام FTC را در مورد آسیب مصرف کننده به خطر می اندازند.

نظری در مورد خطرات هوش مصنوعی

لینا خان، رئیس FTC، استدلال کرد که هوش مصنوعی مولد خطرات تثبیت تسلط قابل توجه فناوری، تقلب در توربوشارژ و خودکارسازی تبعیض را در صورت عدم کنترل به همراه دارد.

در مقاله ای از نیویورک تایمز که چند روز پس از هشدار اعتماد مصرف کننده منتشر شد، خان گفت که هدف FTC ترویج رقابت و حمایت از مصرف کنندگان با گسترش هوش مصنوعی است.

خان به چند شرکت قدرتمند هشدار داد که ورودی‌های کلیدی هوش مصنوعی مانند داده‌ها و محاسبات را کنترل می‌کنند، که می‌تواند در غیاب هوشیاری ضدتراست، تسلط آنها را بیشتر کند.

او هشدار داد که محتوای جعلی واقع بینانه از هوش مصنوعی مولد می تواند کلاهبرداری های گسترده را تسهیل کند. علاوه بر این، داده‌های جانبدارانه الگوریتم‌هایی را به خطر می‌اندازد که به‌طور غیرقانونی افراد را از فرصت‌ها باز می‌دارد.

در حالی که خان جدید بود، سیستم های هوش مصنوعی از حمایت از مصرف کننده FTC و مقامات ضد انحصار مستثنی نیستند. با نظارت مسئولانه، خان خاطرنشان کرد که هوش مصنوعی مولد می تواند به طور عادلانه و رقابتی رشد کند و از دام های دیگر غول های فناوری جلوگیری کند.

هوش مصنوعی و حریم خصوصی داده ها

در ماه ژوئن، FTC به شرکت‌ها هشدار داد که حفاظت از حریم خصوصی مصرف‌کنندگان به طور یکسان در مورد سیستم‌های هوش مصنوعی متکی به داده‌های شخصی اعمال می‌شود.

در شکایت علیه آمازون و رینگ، FTC اقدامات غیرمنصفانه و فریبکارانه با استفاده از داده های صوتی و تصویری برای آموزش الگوریتم ها را مدعی شد.

رئیس FTC خان گفت که مزایای هوش مصنوعی بر هزینه های حفظ حریم خصوصی جمع آوری داده های تهاجمی بیشتر نیست.

این آژانس تاکید کرد که مصرف کنندگان کنترل اطلاعات خود را حفظ می کنند حتی اگر یک شرکت آن را داشته باشد. هنگامی که کارکنان داده های حساس بیومتریک را بررسی می کنند، پادمان های دقیق و کنترل های دسترسی انتظار می رود.

برای اطلاعات کودکان، FTC گفت که قانون حفظ حریم خصوصی کودکان، COPPA را به طور کامل اجرا خواهد کرد. شکایت ها دستور حذف داده های بیومتریک غیرقانونی و هر مدل هوش مصنوعی حاصل از آن را صادر کردند.

پیام برای شرکت‌های فناوری روشن بود – در حالی که پتانسیل هوش مصنوعی بسیار زیاد است، تعهدات قانونی در مورد حفظ حریم خصوصی مصرف‌کننده همچنان مهم است.

مسابقه هوش مصنوعی مولد

نزدیک به پایان ماه ژوئن، FTC دستورالعملی صادر کرد و هشدار داد که رشد سریع هوش مصنوعی مولد می‌تواند نگرانی‌های رقابتی را ایجاد کند، اگر ورودی‌های کلیدی تحت کنترل چند شرکت فناوری مسلط قرار گیرند.

این آژانس گفت ورودی‌های ضروری مانند داده‌ها، استعدادها و منابع محاسباتی برای توسعه مدل‌های پیشرفته هوش مصنوعی مولد مورد نیاز است. این آژانس هشدار داد که اگر تعداد انگشت شماری از شرکت های بزرگ فناوری کنترل بیش از حد بر این ورودی ها به دست آورند، می توانند از این قدرت برای ایجاد اختلال در رقابت در بازارهای هوش مصنوعی مولد استفاده کنند.

FTC هشدار داد که تاکتیک‌های ضدرقابتی مانند بسته‌بندی، تساوی، معاملات انحصاری یا خرید رقبا می‌تواند به شرکت‌های فعلی اجازه دهد تا رقبای نوظهور را کنار بزنند و برتری خود را تثبیت کنند.

FTC اعلام کرد که مسائل رقابتی پیرامون هوش مصنوعی مولد را رصد خواهد کرد و در برابر اقدامات ناعادلانه اقدام خواهد کرد.

هدف این بود که کارآفرینان را قادر به نوآوری با فناوری‌های هوش مصنوعی متحول کنند، مانند چت‌بات‌ها، که می‌تواند تجارب مصرف‌کنندگان را در صنایع تغییر شکل دهد. با سیاست های درست، FTC معتقد بود که هوش مصنوعی مولد در حال ظهور می تواند پتانسیل اقتصادی کامل خود را به ارمغان بیاورد.

ادعاهای بازاریابی مشکوک

در اوایل ژوئیه، FTC در مورد ابزارهای هوش مصنوعی که می توانند دیپ فیک، صداهای شبیه سازی شده و افزایش متن مصنوعی ایجاد کنند، هشدار داد، بنابراین ابزارهایی نیز ظاهر شده اند که ادعا می کنند چنین محتوای تولید شده توسط هوش مصنوعی را شناسایی می کنند.

با این حال، کارشناسان هشدار دادند که ادعاهای بازاریابی مطرح شده توسط برخی ابزارهای تشخیص ممکن است توانایی های آنها را بیش از حد بیان کند.

FTC به شرکت ها نسبت به اغراق در دقت و قابلیت اطمینان ابزارهای تشخیص خود هشدار داد. با توجه به محدودیت‌های فناوری فعلی، کسب‌وکارها باید اطمینان حاصل کنند که بازاریابی ارزیابی‌های واقع‌بینانه از آنچه این ابزارها می‌توانند و نمی‌توانند انجام دهند را منعکس می‌کند.

علاوه بر این، FTC خاطرنشان کرد که کاربران باید مراقب این ادعاها باشند که یک ابزار می‌تواند تمام تقلب‌های هوش مصنوعی را بدون خطا بگیرد. تشخیص ناقص می تواند منجر به متهم کردن غیرمنصفانه افراد بی گناه مانند متقاضیان کار به ایجاد محتوای جعلی شود.

FTC چه چیزی را کشف خواهد کرد؟

تحقیقات FTC در مورد OpenAI در بحبوحه بررسی نظارتی رو به رشد سیستم های هوش مصنوعی مولد انجام می شود.

از آنجایی که این فناوری‌های قدرتمند قابلیت‌های جدیدی مانند چت‌بات‌ها و دیپ‌فیک‌ها را امکان‌پذیر می‌کنند، خطرات جدیدی را در مورد تعصب، حریم خصوصی، امنیت، رقابت و فریب ایجاد می‌کنند.

OpenAI باید به سؤالاتی در مورد اینکه آیا در توسعه و انتشار مدل هایی مانند GPT-3 و DALL-E که مسیر میدان هوش مصنوعی را شکل داده اند اقدامات احتیاطی کافی انجام داده است، پاسخ دهد.

به نظر می رسد FTC بر روی اطمینان از همسویی اقدامات OpenAI با قوانین حمایت از مصرف کننده، به ویژه در مورد ادعاهای بازاریابی، شیوه های داده، و کاهش آسیب های اجتماعی متمرکز شده است.

نحوه واکنش OpenAI و اینکه آیا اقدامات اجرایی انجام می شود یا خیر، می تواند با پیشرفت هوش مصنوعی، سوابق قابل توجهی برای مقررات ایجاد کند.

در حال حاضر، تحقیقات FTC تأکید می‌کند که تبلیغات پیرامون هوش مصنوعی نباید از نظارت مسئولانه پیشی بگیرد.

سیستم‌های هوش مصنوعی قوی نویدبخش هستند، اما اگر بدون پادمان‌های کافی مستقر شوند، خطراتی را به همراه خواهند داشت.

شرکت های بزرگ هوش مصنوعی باید اطمینان حاصل کنند که فناوری های جدید با قوانین قدیمی حمایت از مصرف کنندگان و بازارها مطابقت دارند.


تصویر ویژه: Ascannio/Shutterstock





منبع