(Статья из журнала «Шпигель», ФРГ за 2 декабря 2008 г.)
– Задание очень опасное, поэтому американский офицер посылает на его выполнение вместо живых солдат – солдат «механических». Осторожно приближаются два робота к вражеской позиции. Там должна находиться дюжина вражеских бойцов. Робот номер один снимает автомат с предохранителя и берет на мушку выход из вражеского помещения. Вдруг в проеме показался человек, робот нажимает на спусковой крючок. Но это был не террорист, а случайно оказавшаяся тут посторонняя женщина. Вот дополнительная жертва борьбы с террором – а виновна машина.
Этот сценарий придуман в Пентагоне, там сопоставляют риски, связанные с использованием боевых роботов. Смогут ли машины вести «аккуратную войну», как от них ожидают?
Уже давно используются беспилотные самолеты, заменяя живых пилотов, которые назад могут и не вернуться. Воздушные роботы действуют не совсем автономно, у них как правило есть дистанционное управление. Решения все еще принимает человек. У будущих наземных боевых роботов все должно быть иначе.
Уже сегодня есть вахтенный робот, который патрулирует без оружия. Но именно в единоборстве, при захвате бункеров, механические солдаты могли бы исключить потери в живой силе, хотя бы со стороны американской армии – об этом мечтают военные стратеги Пентагона. Чтобы исключить возможность превращения механических солдат в военных преступников, американской армии и флоту требуется помощь специалистов по этике. Они должны будут внушить механическим убийцам правила этики, насколько это возможно.
«Речь идет о возможности создать автоматических солдат, которые бы придерживались правил ведения войны», - говорит Collin Allen, философ из университета штата Индиана, в беседе с корреспондентом английской газеты «Телеграф». Этот философ издал книгу «Мораль для машины: научить роботов отличать хорошее от плохого».
Уже есть научные статьи по этой теме. Пентагон запланировал до 2010 года выделить 4 миллиарда долларов на развитие подобных автономных систем. У роботов не бывает ни стресса, ни возмущения, ни страха перед пытками, ни желания отомстить, что характерно для живых американских солдат. Но удастся ли?
Исследователь робототехники из университета штата Джорджия Ronald Arkin уверен, что роботы могут стать прекрасными бойцами. Он исследует вопросы морали и этики для роботов по заданию армии США. Его вывод: роботы могут иметь более высокую мораль, чем люди! Им не нужно себя защищать, они погибают без эмоций, сохраняя до последнего мгновения свои умственные способности. Но от них нельзя ожидать хорошего поведения на полях сражений.
Еще в 1942 году американский писатель-фантаст А. Азимов сформулировал три закона робототехники;
1)Робот не имеет права причинять человеку вред, даже путем невмешательства.
2)Робот подчиняется приказам человека, если они не противоречат первому пункту.
3)Робот должен защищать себя, если это не противоречит первым двум пунктам.
Позднее эти законы Азимов изложил в книге «Я – робот». Иррациональные страхи из-за внешнего контроля у робота-убийцы отсутствуют.
«Они не стремятся к взятию власти и не будут нас без разбора убивать, но они могут попасть в положение, когда им придется принимать решения, а такие решения должны основываться на морали и этике».
Поэтому так важно, заранее подумать об этике для думающих машин. А немецкий философ Andreas Matthias требует разработать уголовный кодекс для машин. Они должны отвечать за нанесенный человеку вред. Значит и боевые роботы должны нести ответственность за случайные ошибки.
Однако очень нелегко научить робота хорошему поведению, специалисты по робототехнике знают об этом уже давно. Только пару лет назад канадские ученые нашли решение казалось бы пустяковой задачи: когда два робота встречаются в дверях, кто должен пройти первым? По сравнению с задачами, возникающими на поле боя, это действительно пустяковая проблема.
|
|