هوش مصنوعی جای انسان را در شرایط خطرناک پر می کند.

هوش مصنوعی جدید مثل انسان می بیند و جای خالی او را پر می کند. دانشمندان رایانه در دانشگاه تگزاس در آستین (مرکز ایالت تگزاس) به یک عامل هوش مصنوعی آموزش داده اند تا بعضی کارها را مانند انسان ها انجام می دهد، این ربات با نگاهی اجمالی و سریع به محیط اطراف، شناخت لازم را نسبت به پیرامون خود پیدا می کند، مهارتی لازم برای توسعه ربات های جستجو و نجات که روزی می تواند بهبود اثربخشی در ماموریت های خطرناک دهد.

اکثر عوامل هوش مصنوعی – سیستم های رایانه ای که می توانند ربات ها و یا ماشین های دیگر را هوشمند سازند- برای انجام وظایف بسیار خاص مانند تشخیص یک شی یا تخمین اندازه ی آن آموزش دیده اند و در محیطی مثل یک کارخانه آزموده شده اند. اما این عاملی که توسط تیم دانشگاه تگزاس توسعه یافته است یک عامل با هدف کلی است، جمع آوری اطلاعات دیداری که پس از آن می تواند برای طیف گسترده ای از وظایف استفاده شود.

Grauman می گوید: «ما عاملی می خواهیم که کاملاً تجهیز باشد تا وارد محیط های مختلف شود و برای وظایف ادراکی جدید آماده باشد، این عامل به گونه ای رفتار می کند که همه کاره است و از پس وظایف مختلف بر می آید زیرا الگوهای مفیدی را در مورد دنیای دیداری آموخته است.»

دانشمندان از یک نوع یادگیری ماشین، یادگیری عمیق، که از شبکه های عصبی مغز الهام گرفته است استفاده کردند تا عامل خود را روی هزاران عکس ۳۶۰ درجه از محیط های مختلف متمرکز کنند.

حال، وقتی با صحنه ای مواجه می شود که پیش تر هرگز آن را ندیده است، عامل (مامور ارسالی) از تجربه خود برای چند نگاه کوتاه استفاده می کند – مثل یک توریستی که در وسط یک کلیسای جامع قرار دارد و چند عکس فوری در جهات مختلف می گیرد – که در کنار هم چیزی کمتر از ۲۰ درصد یک صحنه کامل را می دهند. آنچه این سیستم را موثر می کند این است که تصاویر گرفته شده در جهات تصادفی نیستند اما، با هر نگاه، انتخاب عکس بعدی به گونه ای است که پیش بینی می کند که بیشترین اطلاعات جدید را در مورد صحنه اضافه خواهد کرد. این روش شبیه به حالتی است که شما در یک فروشگاه خواروبار فروشی که پیش تر از آنجا بازدید نداشته اید، با دیدن سیب ها، انتظار داشته باشید که پرتقال ها را همان نزدیکی پیدا کنید، اما برای پیدا کردن شیر، ممکن است به جهت دیگری نگاه بیندازید. بر اساس نگاه های کوتاه، عامل هوش مصنوعی استنباط می کند که اگر در همه جهات دیگر نگاه بیندازد، یک تصویر ۳۶۰ درجه از محیط اطراف خود را بازسازی می کند.

گرامان گفت: «همانطور که شما به اطلاعات قبلی منظم شده در محیط هایی که پیش تر تجربه کرده اید -مثل تمام فروشگاه های خاروبار که قبلا رفته اید- دست پیدا می کند این عامل هوش مصنوعی به روشی غیر جامع جستجو می کند و یاد می گیرد حدس های هوشمندانه ای از جایی که در آن اطلاعات بصری را جمع آوری می کند داشته باشد تا در کارهای ادراکی موفق باشد.

یکی از اصلی ترین چالش هایی که دانشمندان برای خود ایجاد کرده اند طراحی عامل هوش مصنوعی ای است که در تحت شرایط زمانی خیلی محدود و سخت کار کند. برای مثال، در یک ساختمان در حال سوختن از ربات انتظار می رود که به سرعت افراد محصور در آتش، شعله ها و مواد خطرناک را پیدا کند و به آتش نشانان آن اطلاعات را منتقل کند.

در حال حاضر، عامل هوش مصنوعی مانند شخصی که در یک نقطه ایستاده است، با قابلیت اینکه دوربین را به هر طرف بگیرد اما نمی تواند به موقعیت جدیدی برود. یا، به طور معادل، عامل هوش مصنوعی می تواند روی یک شیء متمرکز شود و تصمیم بگیرد شیء را بچرخاند تا طرف دیگر آن را وارسی کند. در مرحله بعد، محققان در حال توسعه ی این سیستم روی یک ربات کاملاً متحرک هستند.

با استفاده از ابر رایانه ها در مرکز محاسبات پیشرفته تگزاس آستین UT و دپارتمان علوم رایانه، حدود یک روز طول کشید تا با استفاده از یک رویکرد هوش مصنوعی به نام یادگیری تقویت شده، توانستند عامل خود را آموزش دهند. این تیم، به رهبری «راما کریشنان»، روشی را برای سرعت بخشیدن به تمرینات ایجاد کردند: ساخت یک عامل دیگر به نام سایدکیک برای کمک به عامل اصلی.

راما کریشنان گفت: «استفاده از اطلاعات اضافی که صرفاًَ هنگام آموزش وجود دارد، به عامل اصلی کمک می کند تا سریعتر یاد بگیرد.»