Военные США определили пять принципов искусственного интеллекта

Материал из Викиновостей, свободного источника новостей

26 февраля 2020 года

Министерство обороны США утвердило этические принципы использования искусственного интеллекта, следуя рекомендациям Совета по оборонным инновациям (Defense Innovation Board). По словам министра обороны Марка Эспера (Mark Esper), новые принципы ускорят принятие законных и этических способов использования технологии как в боевых, так и в небоевых операциях. Он поведал, в чем заключаются эти принципы:

1. Ответственность. Сотрудники министерства обороны будут проявлять надлежащий уровень рассудительности и внимательности, будучи ответственными за разработку, развертывание и использование возможностей ИИ.

2. Беспристрастие. Департамент предпримет шаги к минимизации непреднамеренных изменений в возможностях ИИ.

3. Отслеживаемость. Разработка и развертывание ИИ будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Сотрудники должны иметь представление о технологиях, процессах разработки и оперативных методах, применяемых при этом.

4. Надежность. ИИ найдет четко определенное применение, а безопасность, надежность и эффективность которого будут подлежать проверке.

5. Управляемость. Проектирование ИИ будет предполагать обнаружение и предотвращение непреднамеренных последствий. А для развернутых систем будет предусмотрено их отключение или деактивация в случае проявления ими непредусмотренного поведения....

Источники[править]

Эта статья загружена автоматически ботом NewsBots в архив и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.