Британски изследовател учи роботи на морал

Специалистът по роботика Алън Уинфилд от Лабораторията по роботика в Бристол, Великобритания е създал морален капан за роботи и бил поразен от резултата, пише Discovery, цитиран от "24 часа".

 

В рамките на експеримента си Уинфилд и колегите му са програмирали робот да предпазва други автомати - играещи ролята на хора, от падане в дупка. Това е опростена версия на Първия закон на роботиката на фантаста Айзък Азимов – роботът не трябва да позволява човешко същество да бъде наранено.

 

Първоначално роботът се справял със задачата успешно. Когато автоматът човек се движел към дупката, той се втурвал, за да го спре. Научният екип обаче добавил втора машина в ролята на човек, движеща се към дупката по едно и също време, и роботът трябвало да избира. Понякога успявал да спаси единия човек, оставяйки другия да падне. Няколко пъти дори успял да спаси двамата едновременно. При 14 от общо 33 опита роботът губел толкова много време при взимане на решение, че и двата автомата падали в дупката. Уинфилд признава, че до провеждането на този опит е смятал, че е невъзможно робот да направи етичен избор, но сега отговорът му на такъв въпрос е, „че няма идея“.

 

С навлизането на роботите във всекидневието ни този въпрос трябва да намери отговор. Самоуправляващият се автомобил, например, може да попадне в ситуация да трябва да прецени сигурността на пътниците си спрямо риска да нарани други участници в движението. Може да се окаже изключително трудно роботите да се програмират за справяне с такава дилема.

Коментари

Отговор на коментара написан от Премахни

Публикувай
0 коментара

Анкета

Защо се провали първият мандат за съставяне на правителство?