‘ساکت کردن صداهای حاشیه ای’: Google در رسوایی درباره تعصب هوش مصنوعی غرق شد

محقق Timnit Gebru ، هم اکنون رئیس سابق بخش اخلاقی هوش مصنوعی گوگل ، می گوید که وی پس از دریافت نامه الکترونیکی از سوی همکارانش اخراج شده است ، جایی که وی “در مورد تحقیقات درمورد هوش مصنوعی و به طور کلی در میان رده های شرکت” از افراد کمبود نماینده دفاع می کند “.

گوگل تلاش کرده است تا توضیح دهد که چرا یک محقق ارشد هوش مصنوعی پس از آنکه انتشار مقاله ای در مورد یک مسئله مهم اخلاق در هوش مصنوعی را که نویسنده آن ممنوع بوده است ، از این غول فناوری جدا کرد.

جف دین ، ​​رئیس هوش مصنوعی گوگل ، روز پنجشنبه در نامه ای داخلی به کارکنان خود ، به نقل از بار مالی، گفتن مقاله “برای چاپ ما با نوار ما مطابقت نداشت” و اشاره به عزیمت تیمیت گبرو ، که به عنوان رئیس تیم اخلاق هوش مصنوعی در Google بود ، در پاسخ به امتناع شرکت سیلیکون ولی از ملاقات برخی از افراد نامشخص بود شرایطی را که برای ماندن در موقعیت خود در شرکت تعیین کرده بود.

تیمنیت گبرو عصر چهارشنبه در توییتی نوشت که به دلیل ایمیلی که یک روز قبل برای کارمندان شرکت ارسال کرده بود ، اخراج شد.

در ایمیل ، مشاهده شده توسط مجله نیویورک تایمز، او از پاسخ گوگل به تلاش های او و سایر کارمندان برای افزایش استخدام اقلیت ها و جلب توجه به سوگیری در هوش مصنوعی به طور گسترده ابراز ناامیدی کرد.

در این ایمیل آمده است: “زندگی شما شروع به بدتر شدن می کند وقتی که شما شروع به دفاع از افراد کم نماینده می کنید. شما دیگر رهبران را ناراحت می کنید”. “به هیچ وجه اسناد یا مکالمات بیشتر به نتیجه ای نمی رسند”.

‘خاموش کردن صداهای حاشیه ای’

وی در ادامه با ابراز تاسف از وجود “پاسخگویی صفر” در گوگل پیرامون ادعای این شرکت که می خواهد نسبت زنان در صفوف خود را افزایش دهد ، وجود دارد. این ایمیل ، که برای اولین بار در Platformer منتشر شد ، همچنین تصمیم به عدم نور سبز مقاله او را به عنوان بخشی از روند “خاموش کردن صداهای حاشیه ای” نشان می دهد.

در گذشته تنش هایی با مدیریت گوگل بر سر فشار آوردن وی برای ایجاد تنوع بیشتر وجود داشته است FT گزارش به نقل از یکی از همکاران گبرو. این شخص گفت ، با کنار گذاشتن دلایل ، علت خروج وی تصویب مصوبه شرکت مبنی بر عدم اجازه انتشار مقاله تحقیقاتی بود که در تألیف مشترک وی بوده است.

مقاله مورد بحث تعصب بالقوه در مدلهای جامع زبان ، یک زمینه واقعاً امیدوار کننده از تحقیقات زبان طبیعی را مورد بررسی قرار داد ، که به موجب آن سیستمهایی مانند OpenAI GPT-3 و سیستم خود Google ، Bert ، سعی می کنند کلمه بعدی را در هر سخنی پیش بینی کنند.

“کسی در Google تصمیم گرفت که برای علایق آنها مضر است”

این رویکرد زیربنای سیستمهای نوشتاری خودکار م effectiveثر است و توسط Google برای درک بهتر سوالات جستجوی چالش برانگیز استفاده می شود. مدل های مبتنی بر متن ، که به زبان شناسی پیکره ای تکیه می کنند ، نگرانی هایی را ایجاد کرده اند که می توانند به طور خودکار تعصبات نژادی و سایر تعصبات موجود در مطالب آموزشی را که به طور عمده از اینترنت مشتق شده است ، جذب کنند.

به گفته امیلی بندر ، استاد زبانشناسی محاسبات در دانشگاه واشنگتن ، كه همكار این مقاله است ، از خارج ، رفتن گبرو به نظر می رسد “كسی در گوگل تصمیم گرفت كه این برای منافع آنها مضر است”.

“آزادی علمی بسیار مهم است – وقتی خطراتی وجود دارد [research] در مکانهایی اتفاق می افتد که [do not] این آزادی آکادمیک را داشته باشید “، وی ادامه داد:

بندر گفت در مورد خاص خود ، نویسندگان امیدوارند که مقاله را با تحقیقات جدید به موقع به روز کنند تا در کنفرانسی که قرار بود در آن شرکت کنند ، پذیرفته شود. وی افزود با توجه به سرعت پیشروی کار در زمینه هایی مانند این ، معمولاً جایگزینی چنین کاری با تحقیقات جدیدتر جایگزین می شود.

این محقق پیشنهاد داد: “در ادبیات تحقیق ، هیچ مقاله ای کامل نیست”.

ضربه به قابلیت اطمینان فن آوری ها

به همین ترتیب ، خود گبرو نیز به دلایل اصلی “اخراج” خود پرداخت:

این محقق 37 ساله در یکی از آخرین توییت های خود پرس و جو کرده است: “… با توجه به میزان سانسور و ارعاب نسبت به افراد در گروه های خاص ، چگونه کسی اعتماد دارد که می تواند تحقیق واقعی در این زمینه انجام شود؟”

تعصب داخلی

جدایی گبرو از گوگل طوفانی از واکنش ها را برانگیخته است ، اوج تنش بین پرسنل صریح شرکت و مدیریت ارشد آن را برجسته می کند ، در عین حال نگرانی از تلاش های این شرکت برای مقابله با بی عدالتی های اجتماعی (از جمله ادعاهای آزار جنسی) و همچنین ایجاد فناوری منصفانه و قابل اعتماد.

به طور خاص ، این نگرانی مطرح شده است که افرادی که در حال طراحی سیستم های هوش مصنوعی هستند ، می توانند تعصبات خود را در فناوری پیشرفته وارد کنند.

مجله نیویورک تایمز گزارش داده است که طی چندین سال گذشته ، آزمایشهای عمومی زیادی نشان داده است که سیستمهای هوش مصنوعی اغلب با افراد رنگین پوست تعامل متفاوتی دارند – چیزی که تصور می شود ناشی از کمبود آنها در بین متخصصان فنی باشد.