Саморазвитие

Бестактный искусственный интеллект, или как аудиторы могут уберечь компанию от скандала

Время прочтения: 3 мин.

На недавнем совещании по вопросам развития технологий в области искусственного интеллекта президент Российской Федерации в очередной раз сказал, что монополист в сфере искусственного интеллекта станет властелином мира. Нельзя не согласиться со словами нашего лидера, но если это и произойдет, то очень нескоро. Искусственному интеллекту далеко до совершенства, но уже сейчас компании активно используют его в том числе для принятия важных стратегических решений. Поэтому в последнее время все чаще уделяется внимание результатам работы ИИ в части так важных моральных критериев как  справедливость и предвзятость. 

В частности в статье «The Biggest AI Ethical Issues Businesses Need To Address Now-And How» глава одного из отделов по работе с ИИ Эбигейл Хинг Вэнь рассуждает об этических проблемах, которые уже сейчас несут результаты использования ИИ. В частности, смещение в выборке алгоритма найма (в интернете больше резюме от мужчин) может привести к тому, что предпочтение будет отдано мужчинам по сравнению с кандидатами-женщинами. Влияние предвзятости на корпоративные инструменты принятия решений может привести к тому, что компании упустят возможность нанять лучших специалистов, и сделают себе плохую рекламу, что может привести к потере дохода, выжженным заголовкам и потере доверия клиентов.

Данные собранные в Интернете смещаются в сторону активных интернет-пользователей. Инструменты рекомендации видео, товаров,  всплески определенных поисковых вопросов во время выборов, с большей вероятностью отражают поведение и приоритеты активных интернет-пользователей по сравнению с теми, кто его не использует. Та же ситуация с  грамотными по сравнению с неграмотными. Учитывая, что в двух третях стран в Интернете больше мужчин, чем женщин, и, что по-прежнему существует значительный разрыв в уровне грамотности, это потенциально оставляет более миллиарда потенциальных пользователей.

Поэтому необходимо устранять предвзятость решений ИИ на раннем этапе. Для этого существует несколько практик. Как ни парадоксально, но для решения этических проблем можно использовать искусственный интеллект. Так компания IBM  разработало решение AI Fairness 360, которое проверяет ИИ на наличие предубеждений, оценочных суждений и позволяет снизить вероятность ошибок. Например, если модель рекомендует отказать в кредите бизнесу, принадлежащему женщине, данный инструмент  может показать, что решение было частично основано на чувствительности к полу, что непропорционально большое количество кредитов было отказано женщинам или что в учебном наборе отсутствовали данные о принадлежащих женщинам предприятиях.

Однако только машины не справятся с работой, когда дело касается  этических вопросов. Как отмечает Анна Бетке, глава инициативы Intel Corp  в области «ИИ для социального блага»: «Распространенным заблуждением является то, что предвзятость может быть решена с помощью алгоритмов, когда предвзятость также является социальной проблемой, требующей  социального решения, такого как диалог и дебаты». По этой причине  важно, чтобы компании вовлекали в свой процесс команды людей, например, внутренних или внешних аудиторов.  Их задачи — проверять основополагающие предположения алгоритмов и  их результаты, выявлять этические проблемы. Обеспечение того, чтобы человеческое суждение оставалось неотъемлемым, может помочь разработчикам как ответственно управлять инструментами ИИ, так и использовать их преимущества.

В конечном счете, смещение в алгоритмах машинного обучения происходит от людей. Технологии вскрывают скрытые предубеждения, глубоко укоренившиеся в нашей истории. Благодаря этому  у нас есть уникальная возможность поразмышлять о нашем собственном мире и бросить вызов нашим человеческим предубеждениям — создать не только лучший ИИ, но и лучший мир.

Источник: 

https://www.forbes.com/sites/intelai/2019/03/27/the-biggest-ai-ethical-issues-businesses-need-to-address-nowand-how/

Советуем почитать