Научиха робот да лъже
В Технологичния институт в Джорджия (САЩ) е направен първия по рода си експеримент с участието на робот, способен да лъже противника си и даже (ако е необходимо) и партньора си.
„Ние разработихме алгоритми, които позволяват на робота да заблуждава човека или машината, притежаваща изкуствен интелект, както и го учим да избира най-добрата стратегия при различните ситуации", - казва ръководителят на научната група Роналд Аркин.
Това умение не е задължително да намери приложение - роботът най-вероятно няма да бъде снабден с такива способности за изпълнение на някакви специални задачи. „И все пак това е важен инструмент в неговия интерактивен арсенал, тъй като роботът разбира необходимостта да хитрува и има преимущество от гледна точка на крайния резултат в сравнение с роботите, неумеещи да лъжат", - подчертава съавторът на изследването Алън Вагнер, съобщи pcworld.bg
В бъдеще подобни машини могат да се окажат полезни в най-различни сфери. Например, при спасяване на паникьосал се човек.
Но в този случай учените се концентрират на това, да научат робота да се крие от противника си. Преди всичко, машината трябва да разпознава ситуациите, в които има смисъл да се прилага хитрост. Ситуацията трябва да удовлетворява две главни условия - конфликт между роботите и наличие на изгода за единият от тях ако той хитрува.
Учените са поставили на пода маркери, които водят до три места, където може да се крие. Когато роботът разбирал, че са възникнали обстоятелства, при които трябва да се излъже съперникът, той премахвал маркера, водещ до едно от убежищата, а само той се скрил в другото. Само в 5 случая от 20 той не е могъл да съобрази как да излъже противника.
Създаването на машини, разбиращи ценността на лъжата в определени условия, е доста смело предизвикателство към човешката цивилизация, което тя отправя сама на себе си. Безусловно, разработката на подобни роботи изисква и дискусии за етичната страна на тези технологии.
Споделете и Вашата гледна точка пред останалите.
Източник: lifestyle.bg
Посещения: 1366
Дата: 13.09.2010, 22:43
Подобни новини
Коментари
добави коментар
Коментари от регистрирани и анонимни потребители. Скрий анонимните коментари