Предвзятость алгоритмов ИИ может нарушить законодательство

Материал из Викиновостей, свободного источника новостей

21 апреля 2021 года

Федеральная торговая комиссия США внимательно изучает предвзятость в работе искусственного интеллекта. Комиссия предупредила предприятия, что продажа или использование дискриминирующих алгоритмов ИИ может привести к нарушению федерального закона.

Предвзятый ИИ может нарушить Закон о справедливой кредитной отчетности (Fair Credit Reporting Act, FCRA) и Закон о равных возможностях кредитования (Equal Credit Opportunity Act, ECOA). FCRA охватывает случаи, когда алгоритмы ИИ используются для отказа людям в трудоустройстве, жилье, кредите, страховке или других льготах.

Использование предвзятого алгоритма, который приводит к кредитной дискриминации по признаку расы, цвета кожи, религии, национального происхождения, пола, семейного положения или возраста также является незаконным и нарушает ECOA.

FTC призывает компании проверить алгоритмы своего ИИ на предмет предвзятости, основывать используемые системы на наборах данных с ключевой демографической информацией и не преувеличивать их возможности.

Источники[править]

Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.