OpenAI طبقهبندیکننده هوش مصنوعی خود را متوقف کرده است، ابزاری که برای شناسایی متن تولید شده توسط هوش مصنوعی طراحی شده است، پس از انتقادهایی که در مورد دقت آن وجود دارد.
خاتمه به طور ماهرانه از طریق به روز رسانی یک پست وبلاگ موجود اعلام شد.
در اطلاعیه OpenAI آمده است:
از 20 ژوئیه 2023، طبقهبندیکننده هوش مصنوعی به دلیل میزان دقت پایین آن دیگر در دسترس نیست. ما در حال کار برای ترکیب بازخورد هستیم و در حال حاضر در حال تحقیق در مورد تکنیکهای منشأ مؤثرتری برای متن هستیم. ما متعهد به توسعه و استقرار مکانیسمهایی هستیم که کاربران را قادر میسازد بفهمند که آیا محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است یا خیر.
ظهور و سقوط طبقه بندی کننده OpenAI
این ابزار در مارس 2023 به عنوان بخشی از تلاش های OpenAI برای توسعه ابزارهای طبقه بندی کننده هوش مصنوعی راه اندازی شد که به مردم کمک می کند بفهمند محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است یا خیر.
هدف آن این بود که با تجزیه و تحلیل ویژگیهای زبانی و تخصیص «ردهبندی احتمال»، متون متنی را تشخیص دهد که آیا متن توسط انسان نوشته شده است یا هوش مصنوعی.
این ابزار محبوبیت پیدا کرد اما در نهایت به دلیل نقص در توانایی آن در تمایز بین نوشتن انسان و ماشین متوقف شد.
دردهای رشد برای فناوری تشخیص هوش مصنوعی
خاموش شدن ناگهانی طبقهبندیکننده متن OpenAI، چالشهای مداوم توسعه سیستمهای تشخیص هوش مصنوعی قابل اعتماد را برجسته میکند.
محققان هشدار می دهند که نتایج نادرست در صورت استقرار غیرمسئولانه می تواند منجر به عواقب ناخواسته شود.
کریستی هاینز از ژورنال موتورهای جستجو اخیراً چندین مطالعه اخیر را بررسی کرده است که ضعف ها و سوگیری ها را در سیستم های تشخیص هوش مصنوعی کشف کرده است.
محققان دریافتند که این ابزارها اغلب متن نوشته شده توسط انسان را بهعنوان تولید شده توسط هوش مصنوعی، بهویژه برای افرادی که انگلیسی زبان نیستند، اشتباه مینویسند.
آنها تاکید می کنند که پیشرفت مداوم هوش مصنوعی مستلزم پیشرفت موازی در روش های تشخیص برای اطمینان از عدالت، پاسخگویی و شفافیت است.
با این حال، منتقدان می گویند که توسعه هوش مصنوعی مولد به سرعت از ابزارهای تشخیص پیشی می گیرد و امکان فرار آسان تر را فراهم می کند.
خطرات بالقوه تشخیص هوش مصنوعی غیرقابل اعتماد
کارشناسان نسبت به اتکای بیش از حد به طبقهبندیکنندههای فعلی برای تصمیمگیریهای پرمخاطره مانند تشخیص سرقت علمی دانشگاهی هشدار میدهند.
پیامدهای بالقوه تکیه بر سیستم های تشخیص هوش مصنوعی نادرست:
- متهم کردن غیرمنصفانه نویسندگان انسانی به سرقت ادبی یا تقلب در صورتی که سیستم به اشتباه کار اصلی آنها را بهعنوان تولیدشده توسط هوش مصنوعی پرچمگذاری کند.
- در صورتی که سیستم نتواند متن غیر انسانی را به درستی شناسایی کند، اجازه می دهد محتوای سرقت شده یا تولید شده توسط هوش مصنوعی شناسایی نشود.
- اگر هوش مصنوعی سبکهای نوشتاری گروههای خاصی را بهعنوان غیرانسانی طبقهبندی کند، تعصبات را تقویت میکند.
- انتشار اطلاعات نادرست در صورتی که محتوای ساختگی یا دستکاری شده توسط یک سیستم معیوب شناسایی نشود.
به طور خلاصه
از آنجایی که محتوای تولید شده توسط هوش مصنوعی گسترده تر می شود، ادامه بهبود سیستم های طبقه بندی برای ایجاد اعتماد بسیار مهم است.
OpenAI اعلام کرده است که همچنان به توسعه تکنیک های قوی تر برای شناسایی محتوای هوش مصنوعی اختصاص دارد. با این حال، شکست سریع طبقهبندیکننده آن نشان میدهد که تکمیل چنین فناوری نیازمند پیشرفت قابل توجهی است.
تصویر ویژه: photosince/Shutterstock