نگاهی به دنیای آموزش انسان


در عصری که هوش مصنوعی به طور فزاینده‌ای تجربه مشتری را تعریف می‌کند، درک عملکرد درونی این فناوری‌ها هرگز مهم‌تر نبوده است، به‌ویژه برای بازاریابان.

گزارش اخیر بلومبرگ به آموزش نیروی انسانی چت ربات بارد گوگل اشاره کرده است و نقش لاینفک هزاران پیمانکار در شکل دادن به پاسخ های این ابزار هوش مصنوعی را برجسته کرده است.

این گزارش عمیق واقعیت های توسعه هوش مصنوعی را آشکار می کند و پیامدهای مهمی را برای افرادی که از آن استفاده می کنند ارائه می دهد.

کیفیت، دقت و قابل اعتماد بودن تعاملات مبتنی بر هوش مصنوعی می‌تواند بر شهرت نام تجاری، اعتماد مشتری و در نهایت بر نتیجه شما تأثیر بگذارد.

همانطور که در فرآیندهای انسانی پشت ربات چت هوش مصنوعی Bard کاوش می کنیم، بینش های ارزشمندی در مورد چالش ها و فرصت هایی که برای کسب و کارهایی که از هوش مصنوعی در استراتژی های بازاریابی خود استفاده می کنند، به دست می آوریم.

نگاهی به زمین آموزش هوش مصنوعی

Bard گوگل به دلیل پاسخ های سریع و مطمئن به سوالات مختلف مشهور است.

با این حال، کارگران قراردادی ناشناس به بلومبرگ فاش می‌کنند که پشت این مهارت هوش مصنوعی، کار انسان‌های ناامید نهفته است.

این پیمانکاران، که از شرکت‌هایی مانند Appen Ltd. و Accenture Plc می‌آیند، تحت ضرب‌الاجل‌های محدود کار می‌کنند تا اطمینان حاصل کنند که پاسخ‌های چت بات قابل اعتماد، دقیق و عاری از تعصب هستند.

کارکردن تحت فشار

این پیمانکاران، که برخی از آنها حداقل 14 دلار در ساعت درآمد دارند، در سال گذشته تحت فشار فزاینده ای قرار گرفته اند، زیرا گوگل و OpenAI در یک مسابقه تسلیحاتی هوش مصنوعی با هم رقابت می کنند.

وظایف پیچیده‌تر شده‌اند و حجم کار افزایش یافته است، اغلب بدون اینکه پیمانکاران تخصص خاصی در زمینه‌هایی که در حال بررسی هستند داشته باشند.

یکی از پیمانکاران ناشناس گفت:

همانطور که در حال حاضر وجود دارد، مردم ترسیده اند، استرس دارند، حقوق کمتری دریافت می کنند، نمی دانند چه خبر است. و این فرهنگ ترس برای به دست آوردن کیفیت و کار گروهی که از همه ما می‌خواهید، مساعد نیست.»

نقش پیمانکاران در آموزش هوش مصنوعی

نقش پیمانکاران بررسی پاسخ‌های هوش مصنوعی، شناسایی خطاها و حذف سوگیری احتمالی است. آنها با دستورالعمل های پیچیده و ضرب الاجل های فشرده کار می کنند که اغلب به کوتاهی سه دقیقه می رسد.

بر اساس اسنادی که با بلومبرگ به اشتراک گذاشته شده است، اغلب از پیمانکاران خواسته می شود تا تصمیم بگیرند که آیا پاسخ های مدل هوش مصنوعی حاوی شواهد قابل تأیید است یا خیر. آنها پاسخ ها را برای عواملی مانند ویژگی، تازگی اطلاعات و انسجام تجزیه و تحلیل می کنند.

یک مثال در گزارش بلومبرگ به این موضوع می‌پردازد که چگونه یک ارزیاب می‌تواند از شواهدی برای تعیین دوز صحیح داروی فشار خون به نام لیزینوپریل استفاده کند.

پیمانکاران باید اطمینان حاصل کنند که پاسخ ها حاوی محتوای مضر، توهین آمیز یا بیش از حد جنسی نباشد. آنها همچنین باید از اطلاعات نادرست، فریبنده یا گمراه کننده محافظت کنند.

برجسته کردن عامل انسانی پشت هوش مصنوعی

حتی اگر چت ربات‌های هوش مصنوعی مانند بارد به‌عنوان پیشرفت‌های فن‌آوری پیشگامانه در نظر گرفته می‌شوند، حقیقت این است که اثربخشی آنها به کار پیمانکاران انسانی بستگی دارد.

لورا ادلسون، دانشمند کامپیوتر در دانشگاه نیویورک، به بلومبرگ می گوید:

شایان ذکر است که این سیستم‌ها کار شعبده‌بازان نیستند، بلکه کار هزاران نفر و نیروی کار کم‌درآمد آنهاست.

علیرغم نقش اصلی پیمانکاران، کار آنها اغلب در هاله ای از رمز و راز است و ارتباط مستقیم کمی با گوگل دارند.

نگرانی در مورد کیفیت محصولات هوش مصنوعی

پیمانکاران در مورد شرایط کاری خود نگرانی هایی را مطرح می کنند که به اعتقاد آنها می تواند بر کیفیت محصولات هوش مصنوعی تأثیر بگذارد.

همانطور که اد استک هاوس، یکی از کارگران Appen در نامه ای به کنگره بیان کرد، پیمانکاران بخشی ضروری از آموزش هوش مصنوعی هستند.

Stackhouse هشدار داد که سرعت مورد نیاز برای بررسی محتوا می تواند منجر به تبدیل شدن Bard به یک محصول “معیب” و “خطرناک” شود.

گوگل به این نگرانی‌ها پاسخ داد و اظهار داشت که کارهای گسترده‌ای را انجام می‌دهد تا محصولات هوش مصنوعی خود را مسئولانه بسازد و از فرآیندهای آزمایش، آموزش و بازخورد دقیق برای اطمینان از واقعی بودن و کاهش تعصبات استفاده کند.

در حالی که این شرکت بیان می‌کند که برای بهبود هوش مصنوعی تنها به ارزیاب‌های انسانی متکی نیست، اما اشاره شده است که اشتباهات جزئی می‌توانند وارد شوند که به طور بالقوه می‌تواند کاربران را گمراه کند.

الکس هانا، مدیر تحقیقات موسسه تحقیقاتی هوش مصنوعی توزیع شده و اخلاق‌شناس سابق هوش مصنوعی گوگل، گفت:

این هنوز هم نگران کننده است که چت بات حقایق اصلی را اشتباه می گیرد.

فراخوانی برای تغییر

با وجود نگرانی های فزاینده در مورد شرایط کاری و کیفیت محصولات هوش مصنوعی، واضح است که پیمانکاران انسانی بخش اساسی توسعه هوش مصنوعی هستند.

چالش این است که اطمینان حاصل شود که آنها به طور مناسب غرامت دریافت می کنند و منابع لازم برای انجام وظایفشان در اختیار آنها قرار می گیرد.

امیلی بندر، استاد زبان‌شناسی محاسباتی در دانشگاه واشنگتن، بر این نکته تأکید کرد و گفت:

کار این کارکنان قراردادی در گوگل و دیگر پلتفرم‌های فناوری یک داستان استثمار نیروی کار است.

با ادامه انقلاب هوش مصنوعی، نقش پیمانکاران انسانی در شکل‌دهی و اصلاح این فناوری‌ها حیاتی باقی خواهد ماند.

برای اطمینان از توسعه مداوم محصولات هوش مصنوعی قابل اعتماد، دقیق و اخلاقی باید صدای و نگرانی آنها شنیده شود و مورد توجه قرار گیرد.


تصویر ویژه: موریس نوربرت/شاتراستاک





منبع