Американским военным роботам «прошьют» нормы морали, чтобы они не были убийцами типа Терминатора
15 мая 2014 года
70 лет назад писатель-фантаст Айзек Азимов сформулировал три закона робототехники (Архивная копия от 28 декабря 2012 на Wayback Machine), которые являются своего рода «моральным компасом», направляющим действия высокоразвитого искусственного интеллекта (ИИ). Однако до сих пор уровень развития современных технологий ИИ не позволяет робототехническим системам воспринимать полную информацию об окружающей их среде, и до появления первых роботов, способных осознавать и руководствоваться законами Азимова, похоже, пройдет еще очень много времени. Между тем, как сообщает Defense Оne, исследовательское подразделение ВМС США попробует ускорить этот процесс, выдав пятилетний грант на 7,5 млн долларов ученым из ряда университетов, которые будут заниматься решением данной проблемы.
- [#1 В Женеве проходит конференция ООН по теме использования роботов-убийц]
- Роботы смогут заниматься сексом для самовоспроизводства уже через 20-30 лет, прогнозируют эксперты
- Шесть правил, которые спасут человечество от власти роботов
Например, исследователи из Университета Тафтса, возглавляемые профессором Мэттиасом Шюцем, занимаются проблемами робототехнической морали и этики уже достаточно давно, пишет DailyTechInfo(недоступная ссылка). Они пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит роботам подражать поведению высокоморального человека.
Разрабатываемая учеными система правил формализуется в структуру алгоритмов, которые могут быть включены в систему ИИ. Внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм.
Примером может послужить следующая ситуация. Допустим, роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. «Моральный компас» позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека.
Двухступенчатый заслон от ротобов-убийц
Одной из главных мыслей, которые можно почерпнуть из романов Айзека Азимова, является то, что никакой, пусть даже очень обширный набор четких правил, не сможет обеспечить правильную работу робототехнической системы в каждом из возможных сценариев развития событий. В любой цепочке событий рано или поздно произойдет неожиданное отклонение, которое введет робототехническую систему в ступор и послужит причиной совершения роботом «необдуманных» действий. Профессор Шюц и его коллеги полностью соглашаются с этим постулатом, и для преодоления ограничений ими была разработана двухступенчатая система принятия решений.
С точки зрения исследователей, все решения, принятые системой робота, должны проходить предварительную «моральную оценку», реализацию которой уже можно видеть в системе искусственного интеллекта суперкомпьютера Watson компании IBM. Если принятое решение удовлетворяет моральным нормам, то оно принимается к исполнению. В обратном случае вырабатывается еще одно решение, источником которого является система, разработанная группой профессора Шюца, которая учитывает сложности человеческой этики.
Так как работы исследователей в данном направлении проводятся по заказу и финансируются армией США, первые роботы, которые получат наборы моральных правил и ограничений, будут боевыми роботами, а также оказывающими солдатам всевозможную помощь. И это, в свою очередь, сможет послужить гарантией того, что сценарии наподобие сюжета фильма «Терминатор» станут попросту невозможными, отмечает DailyTechInfo.
В Женеве проходит конференция ООН по теме использования роботов-убийц
В Женеве открылась первая в истории экспертная конференция, посвященная теме использования боевых автономных роботизированных систем. Четырехдневный форум, проводящийся под эгидой ООН, проходит с 13 по 16 мая в рамках Конвенции о «негуманном» оружии с участием делегаций 117 стран - участниц конвенции.
Делегаты конференции попытаются разобраться в том, насколько опасно может быть для человека массовое введение в эксплуатацию роботов-убийц, самостоятельно принимающих решения об уничтожении целей, передает ИТАР-ТАСС.
«Роботы-убийцы представляют угрозу основным положениям международного гуманитарного права», - сообщил журналистам директор отдела вооружений правозащитной организации Human Rights Watch Стив Гуз. По его словам, «как при полицейской операции, так и на войне чрезвычайно важно, чтобы человек принимал решение, когда применять оружие», - заметил Гуз.
По различным оценкам, Соединенные Штаты - лидер в этой области - уже сегодня используют в военных целях около 11 тысяч беспилотных летательных аппаратов и более 12 тысяч наземных роботов.
По словам принимающего участие в дискуссиях британского ученого, профессора Шеффилдского университета Ноэля Шарки, разработки в этой сфере ведутся также в Китае, Израиле, Тайване, России, Южной Корее, Великобритании.
«Полностью автономное оружие непредсказуемо, и в этом заключается проблема», - сообщил журналистам Шарки. Он подчеркнул, что речь не идет о том, чтобы запретить автономных роботов. «Мы не хотим лишь одного - чтобы у них была функция убийства», - подчеркнул эксперт, по словам которого уровень развития техники на настоящий момент не делает такое автономное оружие безопасным.
По оценкам маркетинговой компании Global Industry Analysts, к 2018 году мировые расходы на производство военной робототехники увеличатся до 7,5 млрд долларов по сравнению с 5,6 млрд долларов в 2012 году.
Источники[править]
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии[править]
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.