انتشار Timnit Gebru از گوگل نشان دهنده بحران هوش مصنوعی است


او امسال چیزهای زیادی را در اختیار داشت ، از جمله ادعاهای جسورانه در مورد پیشرفت در هوش مصنوعی. مفسران صنعت اظهار داشتند که مدل تولید زبان GPT-3 ممکن است “هوش مشترک مصنوعی” را بدست آورده باشد ، در حالی که دیگران الگوریتم تاشو پروتئین Alphafold Alphabet و توانایی آن در “تغییر زیست شناسی” را ستوده اند. اگرچه اساس چنین ادعاهایی نازک تر از عناوین موهوم است ، اما برای سرکوب شور و شوق در صنعت که سود و اعتبار آن به گسترش AI بستگی دارد ، کار چندانی انجام نداده است.

در این زمینه ، گوگل تیمنیت گبرو ، دوست عزیز و همکار و رهبر ما را در زمینه هوش مصنوعی اخراج کرد. وی همچنین یکی از معدود زنان سیاه پوست در تحقیقات هوش مصنوعی و مدافع بی تردید برای جذب بیشتر زنان BIPOC و افراد غیر غربی به این حوزه است. از هر لحاظ ، کاری را که گوگل برای انجام آن اجیر کرده بهتر است ، از جمله نشان دادن تفاوت های نژادی و جنسیتی در فن آوری های تجزیه و تحلیل صورت و ایجاد دستورالعمل هایی برای گزارش مجموعه داده ها و مدل های هوش مصنوعی. از قضا ، این و طرفداری از صدای وی در زمینه تحقیقات در زمینه هوش مصنوعی نیز از دلایلی است که وی می گوید این شرکت او را اخراج کرده است. به گفته گبرو ، پس از درخواست وی و همكارانش برای پس گرفتن كار علمی منتقد سیستم های هوش مصنوعی در مقیاس بزرگ (سودآور) ، Google Research به تیم خود گفت كه علی رغم اینكه استعفا نداده استعفا را پذیرفته است. (گوگل از اظهار نظر در مورد این داستان خودداری کرد.)

نگرش وحشتناک گوگل نسبت به Gebru یک بحران مضاعف در تحقیقات هوش مصنوعی را نشان می دهد. این رشته تحت سلطه نخبگان ، عمدتا مرد سفید پوست کار می کند و عمدتاً توسط بازیگران اصلی صنعت – مایکروسافت ، فیس بوک ، آمازون ، آی بی ام و بله ، گوگل کنترل و تأمین مالی می شود. با برکناری گبرو ، سیاست مدنی که تلاش های جوان را برای ایجاد محافظ های لازم در اطراف هوش مصنوعی انجام می داد ، از هم گسیخته شد و سوالاتی را در مورد همگنی نژادی نیروی کار AI و بی اثر بودن برنامه های تنوع شرکتی در قلب گفتمان ایجاد کرد. اما این وضعیت همچنین روشن کرده است که – به همان اندازه صادقانه بودن شرکت به وعده های گوگل – تحقیقات تأمین شده توسط شرکت هرگز نمی تواند از واقعیت قدرت و درآمد و جریان سرمایه جدا شود.

این باید بر همه ما تأثیر بگذارد. با گسترش AI در مناطقی مانند مراقبت های بهداشتی ، عدالت کیفری و آموزش ، محققان و وکلا نگرانی های فوری را مطرح می کنند. این سیستم ها تعاریفی را ارائه می دهند که مستقیماً زندگی را شکل می دهند ، در عین حال در سازمانهایی که برای تقویت تاریخ تبعیض نژادی ساختار یافته اند ، تعبیه شده است. سیستم های هوش مصنوعی همچنین قدرت را در دست کسانی که آنها را طراحی و استفاده می کنند متمرکز می کنند ، در حالی که مسئولیت (و مسئولیت) را در پشت جنبه های محاسبات پیچیده پنهان می کنند. خطرات عمیق است و مشوق ها قطعاً منحرف می شوند.

بحران کنونی موانع ساختاری را نشان می دهد که توانایی ما در ایجاد محافظت موثر در اطراف سیستم های AI را محدود می کند. این امر از اهمیت ویژه ای برخوردار است زیرا جمعیت های تحت تأثیر سوگیری و پیش بینی های هوش مصنوعی عمدتاً افراد BIPOC ، زنان ، اقلیت های مذهبی و جنسیتی و فقرا هستند – کسانی که از بار تبعیض ساختاری رنج برده اند. در اینجا ما بین کسانی که سود می برند – شرکت ها و بیشتر محققان و توسعه دهندگان مرد سفید پوست – و کسانی که به احتمال زیاد رنج می برند ، یک تقسیم بندی واضح داریم.

به عنوان مثال ، فن آوری های تشخیص چهره را نشان می دهد که نشان می دهد افراد پوست تیره کمتر از افرادی که پوست روشن تری دارند ، “تشخیص” دارند. این به تنهایی نگران کننده است. اما این “اشتباهات” نژادی تنها مشکلات تشخیص چهره نیستند. Attic Fifth ، مدیر سازمان Data for Black Lives ، اشاره می کند که این سیستم ها به طور نامتناسبی در محله ها و شهرهای عمدتا سیاهپوستان اجرا می شوند ، در حالی که شهرهایی که موفق به استفاده از تشخیص چهره شده اند را ممنوع و دفع می کنند ، عمدتا سفیدپوست هستند.

بدون یک تحقیق مستقل و حیاتی که متمرکز بر چشم اندازها و تجارب افرادی است که از این فناوری ها آسیب می بینند ، توانایی ما در درک و به چالش کشیدن ادعاهای فوق العاده صنعت با اشکال جدی مواجه می شود. نگرش Google نسبت به Gebru درمورد اینکه اولویتهای شرکت در کجای کار قرار دارد ، هنگامی که کارهای مهم به انگیزه های تجاری آن بازمی گردد ، روشن تر می شود. این امر اطمینان از پاسخگویی به سیستم های هوش مصنوعی را در برابر افرادی که بیشتر در معرض آسیب خود قرار دارند ، تقریباً غیرممکن می سازد.

بازرسی از صنعت با پیوندهای تنگاتنگ بین شرکت های فناوری و موسسات دانشگاهی به ظاهر مستقل بیشتر به خطر می افتد. محققان شرکت ها و دانشگاه ها مقالاتی را با هم منتشر می کنند و در همان کنفرانس ها آرنج خود را می مالند ، حتی برخی از محققان حتی همزمان در شرکت های فناوری و دانشگاه سمت می گیرند. این مرز بین تحقیقات دانشگاهی و شرکتی را محو می کند و انگیزه های چنین کاری را پنهان می کند. این همچنین بدان معنی است که دو گروه به شدت شبیه هم هستند – تحقیقات هوش مصنوعی دانشگاهی از همان مشکلات مخرب نژاد و همگنی جنسیتی با همتایان شرکت های خود رنج می برد. علاوه بر این ، بهترین گروه های علوم کامپیوتر مبالغ زیادی بودجه را برای تحقیقات Big Tech می پذیرند. ما فقط باید به دنبال Big Tobacco و Big Oil برای الگوهای نگران کننده ای باشیم که نشان می دهد شرکت های بزرگ چه تاثیری می توانند در درک عمومی مردم از مشکلات پیچیده علمی داشته باشند ، وقتی ایجاد دانش در دست آنها باشد


منبع: sadeh-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>