یک محقق برجسته اخلاق در AI می گوید گوگل او را اخراج کرده است


قبل از پیوستن به گوگل در سال 2018 ، Gebru در حال همکاری با Joy Buolamvini ، محقق MIT در پروژه ای به نام Gender Shades بود ، که نشان داد فناوری تحلیل چهره IBM و Microsoft برای مردان سفیدپوست بسیار دقیق است ، اما برای آنها بسیار نادرست است زنان سیاه پوست. وی به قانونگذاران و تکنسین های آمریکایی کمک کرد تا صحت تشخیص چهره از جمعیتهای مختلف را س questionال کنند و تأیید کنند و به مایکروسافت ، IBM و آمازون کمک کرد تا اعلام کنند که فروش فناوری متوقف شده در سال جاری را متوقف می کنند. گبرو همچنین کنفرانسی تأثیرگذار به نام Black in AI تاسیس کرد که می خواهد تنوع پژوهشگران م toثر در این زمینه را افزایش دهد.

خروج گبرو هنگامی آغاز شد که وی در یک مقاله تحقیقی با محققان داخل و خارج از گوگل در مورد مسائل اخلاقی مطرح شده توسط پیشرفت های اخیر در نرم افزار زبان هوش مصنوعی همکاری کرد.

راهنمای Wired هوش مصنوعی

الگوریتم های Supermart همه وظایف را بر عهده نخواهند گرفت ، اما آنها سریعتر از هر زمان دیگری یاد می گیرند ، از تشخیص پزشکی تا تبلیغات همه کارها را انجام می دهند.

محققان با ایجاد مدلهای غول پیکر یادگیری ماشینی آموزش دیده در بخشهای گسترده ای از متن آنلاین ، گامهای بلندی در مسائلی مانند تولید متن و پاسخگویی به سوالات برداشته اند. گوگل می گوید این فناوری موتور جستجوی سودآور خود را به همین نام قدرتمندتر کرده است. اما محققان همچنین نشان داده اند که ایجاد این مدل های قدرتمندتر به دلیل وجود منابع محاسباتی بسیار زیاد ، مقادیر زیادی برق مصرف می کند و چگونگی تولید مجدد زبان های معتاد به نژاد و نژاد را که به صورت آنلاین پیدا می شود ، مستند کرده است.

گبرو می گوید پیش نویس سند وی این موارد را مورد بحث قرار می دهد و خواستار استفاده مسئولانه از فناوری است ، به عنوان مثال با مستند سازی داده های مورد استفاده برای ایجاد مدل های زبان. وقتی مدیر ارشد اصرار داشت که او و دیگر نویسندگان Google یا نام خود را از مقاله حذف کنند یا آن را به طور کامل پس بگیرند ، نگران شد ، به ویژه هنگامی که نمی تواند روند مورد استفاده برای بررسی پیش نویس را یاد بگیرد. وی گفت: “من احساس می كردم كه در حال سانسور هستیم و فكر كردم كه این امر برای همه تحقیقات اخلاقی هوش مصنوعی تأثیراتی دارد.”

گبرو می گوید او نتوانسته است مدیر ارشد را برای غلبه بر مشکلات کاغذ ترغیب کند. او می گوید که مدیر اصرار داشت نام او را حذف کند. روز سه شنبه ، گبرو با ارسال پیشنهادی برای معامله ایمیلی به وی ارسال کرد: اگر توضیح کاملی درباره آنچه اتفاق افتاده دریافت کند و تیم تحقیقاتی با مدیریت دیدار کنند تا در مورد فرآیند رسیدگی صادقانه تحقیقات آینده توافق کنند ، او نام خود را از مقاله حذف می کند. در غیر این صورت ، وی موافقت خواهد کرد که شرکت را در فرصتی دیگر ترک کند ، و آزادی انتشار روزنامه بدون وابستگی شرکت را ترک خواهد کرد.

Gebru همچنین لیست گسترده تری را برای تیم تحقیقاتی هوش مصنوعی گوگل از طریق ایمیل ارسال کرد و گفت که تلاش مدیران برای بهبود تنوع بی نتیجه است. وی شرح اختلاف خود بر سر سند زبان را به عنوان نمونه ای از چگونگی سکوت مدیران گوگل در بین افراد گروه های حاشیه ای درج کرد. Platformer روز پنجشنبه نسخه ای از ایمیل را منتشر کرد.

روز چهارشنبه ، گبرو گفت که از گزارش های زنده خود آموخته است که به آنها گفته شده است که گبرو از گوگل استعفا داده و استعفای وی پذیرفته شده است. وی دریافت که حساب شرکتی وی غیرفعال شده است.

ایمیلی که یک مدیر به آدرس شخصی Gebru ارسال کرده است حاکی است که استعفای وی باید بلافاصله پس از ارسال نامه الکترونیکی منعکس کننده “رفتاری که انتظارات مدیر Google را برآورده نمی کند” ، اعمال شود. Gebru وارد توییتر شد و خشم به سرعت در میان محققان آنلاین AI افزایش یافت.

شبح کارتهای بازی یک مرد و یک روبات

راز یادگیری ماشینی؟ معلمان انسانی

بسیاری از کسانی که از گوگل انتقاد می کردند ، چه در داخل و چه در خارج از شرکت ، خاطرنشان کردند که این شرکت ضربه ای دیده ، به تنوع نیروی کار هوش مصنوعی خود آسیب رسانده و یک مدافع برجسته برای بهبود این تنوع را از دست داده است. گبرو مظنون است که درمان وی تا حدودی ناشی از صراحت صریح او در مورد تنوع و نگرش گوگل نسبت به افراد گروه های حاشیه ای است. او می گوید: “ما برای نمایندگی دعا کردیم ، اما تقریباً هیچ سیاه پوستی در Google Research وجود ندارد و از آنچه من کسی را در راهنما نمی بینم ،”


منبع: sadeh-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>