[ad_1]

هوش مصنوعی است محدود کردن توسط مرزهای بین المللی دشوار است ، زیرا مشاغل ، دانشگاه ها و دولت ها از یک مجموعه ایده ، الگوریتم و استعداد جهانی استفاده می کنند. با این وجود برنامه های هوش مصنوعی که ناشی از این هجوم طلای جهانی است ، هنوز هم می تواند اختلافات عمیق فرهنگی را منعکس کند.

تحقیقات جدید نشان می دهد که چگونه سانسور دولت بر الگوریتم های هوش مصنوعی تأثیر می گذارد – و می تواند بر برنامه های ساخته شده با این الگوریتم ها تأثیر بگذارد.

مارگارت رابرتز ، استاد علوم سیاسی در دانشگاه سن دیگو و ادی یانگ ، دانشجوی دکترا در آنجا ، الگوریتم های زبان هوش مصنوعی را آموزش دیدند که در دو منبع آموزش داده شده است: نسخه چینی زبان ویکی پدیا ، که در چین مسدود شده است. و Baidu Baike ، سایتی مشابه با موتور جستجوی غالب چینی Baidu که مورد سانسور دولت است. بایدو به درخواستی برای اظهار نظر پاسخ نداد.

محققان کنجکاو بودند که آیا سانسور برخی کلمات و عبارات را می توان از الگوریتم های هوش مصنوعی آموخت و به نرم افزاری که از این الگوریتم ها استفاده می کند راه پیدا کرد. این می تواند بر روی زبان مورد استفاده توسط chatbot یا دستیار صوتی ، عبارت موجود در یک برنامه ترجمه یا متن ابزارهای تکمیل خودکار تأثیر بگذارد.

نوع الگوریتم زبان آنها با تجزیه و تحلیل نحوه جمع شدن کلمات در مقادیر زیاد متن ، آموخته می شود. این کلمات مختلف را به عنوان گره های متصل در فضای فیزیکی ارائه می دهد. هرچه کلمات نزدیکتر به نظر برسند ، معنای آنها بیشتر شبیه است.

یک برنامه ترجمه می تواند با مشاهده این روابط ، به عنوان مثال در دو زبان مختلف ، معنای یک کلمه ناشناخته را استنباط کند.

محققان UCSD تفاوت های اساسی را در الگوریتم های هوش مصنوعی حاصل پیدا کرده اند ، که به گفته محققان ، بازتاب دهنده اطلاعات سانسور شده در چین است. به عنوان مثال ، آنچه در ویکی پدیای چینی آموزش داده شده نشان دهنده “دموکراسی” نزدیک به کلمات مثبت مانند “ثبات” است. الگوریتمی که توسط بایک بایدو آموزش دیده است “دموکراسی” نزدیک به “هرج و مرج” است.

رابرتز و یانگ سپس از الگوریتم هایی برای ساخت دو برنامه ارزیابی خلق و خو استفاده کردند ، معنی مثبت در مقابل معنای منفی عناوین خبری. آنها دریافتند که یک نفر آموزش دیده در ویکی پدیای چینی نتایج مثبت بیشتری به عناوینی که اصطلاحات ذکر شده از جمله “انتخابات” ، “آزادی” و “دموکراسی” نسبت داده است ، در حالی که یکی آموزش دیده در Baidu Baike نتایج مثبت بیشتری به عناوین از جمله “نظارت” ، “اجتماعی” می دهد. کنترل “و” CCP “. این مطالعه در کنفرانس پاسخگویی و شفافیت عادلانه 2021 (FAccT) در مارس ارائه خواهد شد.

در سال های اخیر ، محققان تأکید کرده اند که چگونه تعصب نژادی و جنسیتی می تواند در بسیاری از سیستم های هوش مصنوعی پنهان شود. به عنوان مثال الگوریتم هایی که روی متن خراشیده شده از وب یا کتاب های قدیمی آموزش دیده اند ، بازتولید تعصبات نشان داده شده توسط نویسندگان انسانی آن متن را فرا می گیرند. در سال 2018 ، محققان Google تعصبات فرهنگی را در الگوریتم های تشخیص تصویر نشان دادند ، که به عنوان مثال ، فقط توسط صحنه های عروسی غربی قابل تشخیص است.

تصویر یک مورد

راهنمای Wired هوش مصنوعی

الگوریتم های Supermart همه وظایف را بر عهده نخواهند گرفت ، اما آنها سریعتر از هر زمان دیگری یاد می گیرند ، از تشخیص پزشکی تا تبلیغات همه کارها را انجام می دهند.

رابرتز خاطرنشان می کند که اختلافات مشاهده شده در مطالعه آنها ممکن است کاملا ناشی از سانسور دولت نباشد. برخی ممکن است در نتیجه خودسانسوری یا به سادگی اختلافات فرهنگی بین کسانی باشد که در دائرlopالمعارف مقاله می نویسند. اما او می گوید مهم است که تشخیص دهیم سیاست عمومی می تواند منجر به اشکال دیگری از تعصب در کمین سیستم های هوش مصنوعی شود. رابرتز می گوید: “ما این را یک نقطه شروع برای تلاش برای درک چگونگی ظهور داده های یادگیری مبتنی بر کنترل در یادگیری ماشین می دانیم.”

رابرتز می گوید محققان و سیاست گذاران باید در نظر بگیرند که چگونه دولت ها در آینده می توانند بر شیوه آموزش سیستم های هوش مصنوعی برای تأثیرگذاری بیشتر در سانسور یا صادرات برخی ارزش ها تأثیر بگذارند.

گراهام هرست ، استاد دانشگاه تورنتو که متخصص زبانشناسی محاسبات و پردازش زبان طبیعی است ، از نظر روش تحقیق دارای برخی مشکلات است. Hearst می گوید ، بدون مطالعه دقیق اختلافات بین ویکی پدیای چینی و بایدو بایکه ، توصیف تغییرات در الگوریتم های سانسور دشوار است. وی گفت: همچنین ممکن است ویکی پدیای چینی حاوی محتوای ضدچینی یا آشکارا طرفدار دموکراسی باشد. هرست اضافه می کند که مشخص نیست که چگونه تجزیه و تحلیل خلق و خوی انجام شده و آیا ممکن است تعصب در آنجا ایجاد شده باشد.

دیگران آن را به عنوان یک همکاری خوب در این زمینه می دانند.

سورش ونكاتاسوبرامانیان ، استاد دانشگاه یوتا كه اخلاق هوش مصنوعی را می خواند و كنفرانس FAcct را بنیان نهاد ، گفت: “به نوعی ، این جای تعجب نیست.

Venkatasubramanian خاطرنشان می کند که الگوریتم های هوش مصنوعی آموزش دیده در مقالات خبری غربی ممکن است سوگیری های ضدچینی خود را داشته باشند. وی گفت: “اما من فکر می کنم که انجام کار برای اثبات وقوع هنوز مهم است.” “سپس می توانید بپرسید که چگونه نشان داده می شود ، چگونه آن را اندازه گیری می کنید ، به چه شکل است و غیره.”


داستانهای WIRED عالی

[ad_2]

منبع: sadeh-news.ir