[ad_1]

احتمالاً هرگز نداشته اید من تعجب می کردم که یک شوالیه ساخته شده از اسپاگتی چه شکلی است ، اما به هر حال جواب این سوال را می دهم – با احترام به یک برنامه هوشمند هوشمند مصنوعی هوشمند از OpenAI ، یک شرکت در سانفرانسیسکو.

برنامه DALL-E که در اوایل این ماه آغاز شده است ، می تواند تصاویری از انواع چیزهای عجیب و غریب مانند صندلی های آووکادو ، زرافه های ربات یا تربچه های حامل بسته را ایجاد کند. OpenAI بنا به درخواست WIRED چندین تصویر از جمله شوالیه اسپاگتی تولید می کند.

DALL-E نسخه ای از GPT-3 است ، مدلی از هوش مصنوعی آموزش دیده روی متن حذف شده در شبکه که می تواند متن شگفت آور سازگار ایجاد کند. DALL-E تصاویر و توضیحات همراه را ارائه داده است. در پاسخ می تواند یک تصویر مش مناسب ایجاد کند.

تصاویر ایجاد شده توسط DALL-E در پاسخ به “تصویر تربچه بچه دایکون در یک بسته در حال راه رفتن سگ”.

با مجوز از OpenAI

شوخی کنندگان به سرعت جنبه سرگرم کننده DALL-E را دیدند ، به عنوان مثال خاطر نشان کردند که او می تواند انواع جدیدی از غذاهای انگلیسی را تصور کند. اما DALL-E بر اساس پیشرفت های مهم در بینایی رایانه ای مبتنی بر هوش مصنوعی ساخته شده است که می تواند کاربردهای جدی و عملی داشته باشد.

CLIP نامیده می شود ، از یک شبکه عصبی مصنوعی عظیم تشکیل شده است – الگوریتمی با الهام از نحوه یادگیری مغز – که صدها میلیون تصویر و برچسب های متنی همراه را از شبکه تغذیه می کند و برای پیش بینی برچسب های صحیح تصویر آموزش دیده است.

محققان OpenAI دریافته اند که CLIP می تواند اشیا as را به همان اندازه الگوریتم های آموزش دیده به روش معمول – با استفاده از مجموعه داده انتخاب شده که تصاویر به خوبی با برچسب ها مطابقت دارند – تشخیص دهد.

در نتیجه ، CLIP می تواند چیزهای بیشتری را تشخیص دهد و می تواند بدون نیاز به مثال های فراوان ، شکل برخی از چیزها را درک کند. CLIP با انتخاب خودکار بهترین تصاویر از تصاویر ایجاد شده ، به DALL-E کمک کرد تا آثار هنری خود را تولید کند. OpenAI مقاله ای را در مورد نحوه کار CLIP و همچنین نسخه کوچکی از برنامه به دست آمده منتشر کرده است. او هنوز هیچ مقاله یا کد DALL-E منتشر نکرده است.

تصویر یک مورد

راهنمای Wired هوش مصنوعی

الگوریتم های Supermart همه وظایف را بر عهده نخواهند گرفت ، اما آنها سریعتر از هر زمان دیگری یاد می گیرند ، از تشخیص پزشکی تا تبلیغات همه کارها را انجام می دهند.

Kartik Narasimhan ، استادیار بینایی کامپیوتر در پرینستون گفت ، هر دو DALL-E و CLIP “فوق العاده چشمگیر” هستند. او می گوید CLIP براساس کارهای قبلی است که سعی در آموزش مدل های بزرگ هوش مصنوعی با استفاده همزمان از تصاویر و متن داشته است ، اما این کار را در مقیاسی بی سابقه انجام می دهد. وی گفت: “CLIP نمایشی وسیع از امکان استفاده از اشكال طبیعی بیشتر برای نظارت است – شیوه گفتگو درمورد همه چیز.”

او می گوید CLIP می تواند از نظر تجاری از بسیاری جهات مفید باشد ، از بهبود تشخیص تصویر استفاده شده در جستجوی وب و تجزیه و تحلیل ویدئو ، تا هوشمندتر شدن ربات ها یا وسایل نقلیه مستقل. وی می گوید ، از CLIP می توان به عنوان یک نقطه شروع برای الگوریتمی استفاده کرد که به روبات ها امکان یادگیری از تصاویر و متن را می دهد. یا می تواند به یک ماشین خودران کمک کند عابران پیاده یا درختان را در یک محیط ناآشنا تشخیص دهد.

[ad_2]

منبع: sadeh-news.ir