Мнение эксперта

Как убедиться, что вы можете доверять своему искусственному интеллекту?

Время прочтения: 4 мин.

Сегодня в рубрике #Мнение_зарубежных_коллег предлагаем ознакомиться со статьей Дэвида Макканна «Как убедиться, что вы можете доверять своему искусственному интеллекту (ИИ)». Статья позволяет заглянуть в будущее и узнать о том, с чем в скором времени предстоит столкнуться аудиторам. Перевод подготовила Нагорная Светлана ПАО Сбербанк.

Установление доверия к экосистеме искусственного интеллекта компании имеет важное значение, учитывая возможные непредвиденные последствия постоянной эволюции ИИ.

Мы знаем, что искусственный интеллект развивается, и уже находится в процессе активного внедрения, как в бизнесе, так и во всех сферах жизни. Чего мы еще не знаем, так это того, к каким непредвиденным последствиям приведет применение ИИ, когда он станет более продвинутым и привычным.

Сложным для представления является и то, что ИИ — это не «технология» в том же смысле, в каком является технологией, например, программное обеспечение планирования ресурсов предприятия (ERP). Несмотря на то, что существуют множество разновидностей ERP, с различными наборами возможностей, мы понимаем, что это — программное обеспечение, предназначенное для интеграции операционных и финансовых процессов организации в единую систему.

А искусственный интеллект — разнообразный набор методов и инструментов, которые постоянно развиваются в тандеме с достижениями в области науки о данных, облачных сервисах и адаптации конечных пользователей.

В будущем, после некоторого периода непрерывного развития и все большего принятия конечными пользователями, ключевые технологические системы большинства компаний могут находиться под контролем искусственных автономных агентов.

Поскольку такие агенты будут предназначены для самостоятельного обучения, они могут развивать способности, позволяющие им также принимать решения и действовать самостоятельно. Конечно, потенциальные опасности, связанные с этим развитием, сегодня широко обсуждаются.

С одной стороны, чтобы идти в ногу со временем, компаниям необходимо переходить на цифровую трансформацию, использование роботизированных, интеллектуальных и автономных систем. Предприятия, которые продвинулись в своем цифровом путешествии, смогут быстрее освоить и реализовать преимущества ИИ.

С другой стороны, такие системы могут работать со сбоями, преднамеренно повреждаться, и приобретать предубеждения человека способами, которые могут быть не сразу очевидны.

По мнению Ernst & Young (EY), решение этих проблем заключается в создании «доверия к ИИ».

Что это значит? Для проектировщиков, архитекторов и разработчиков таких систем становится все более важным быть в полной мере осведомленными о последствиях, которые могут возникнуть под влиянием взаимозависимых аспектов, включая социальные, нормативные и репутационные проблемы.

Это должно учитываться как коммерческими разработчиками, так и компаниями, создающими собственные инструменты. Компании, которые покупают эти инструменты у других, также должны опасаться рисков.

Перед началом проекта по искусственному интеллекту компания должна убедиться, что выполнены четыре условия:

Этика: система ИИ должна соответствовать этическим и социальным нормам, включая корпоративные ценности.

Социальная ответственность: Необходимо тщательно рассмотреть потенциальное влияние системы ИИ на общество, в том числе ее влияние на финансовое, физическое и психическое благополучие людей и окружающую среду. Воздействие на общество может включать в себя: необходимость переподготовки кадров, сокращение трудовых ресурсов, дискриминацию и воздействие на окружающую среду.

Подотчетность и объяснимость: система ИИ должна иметь четкую линию подотчетности перед лицом, которое должно быть в состоянии объяснить систему принятия решений системой и как она работает.

Надежность: включает в себя тестирование функциональности системы ИИ и порядок выявления непредвиденных результатов, ухудшения работы системы или операционных сдвигов не только во время первоначального обучения или моделирования, но и на протяжении всего цикла работы.

И все это только для начала. Продолжая работу над проектом ИИ, чтобы добиться и поддерживать «доверие к ИИ», компания должна понимать, управлять, точно настраивать и защищать все компоненты, встроенные в систему ИИ и вокруг нее. Эти компоненты включают источники данных, датчики, встроенное программное обеспечение, аппаратное обеспечение, пользовательские интерфейсы, сети, а также операторов и пользователей.

К сожалению, развитие функциональности искусственного интеллекта опережает способность разработчиков обеспечивать прозрачность, беспристрастность, безопасность, точность и аудит системы. Это создает потребность в модели управления ИИ.

EY рекомендует следующие лучшие практики для создания доверенной экосистемы ИИ:

Совет по этике AI: это междисциплинарный орган, который предоставляет независимые советы и рекомендации по этическим соображениям. Консультанты должны быть привлечены из дисциплин, включая этику, право, философию, технологии, конфиденциальность, правила и науку. Совет по этике должен отчитываться перед советом директоров.

Стандарты проектирования ИИ: они должны включать этический кодекс поведения ИИ и принципы дизайна ИИ. Стандарты должны определять и регулировать механизмы управления и подотчетности AI для защиты пользователей, соблюдения социальных норм и соблюдения законов и нормативных актов.

Инвентаризация ИИ и оценка воздействия. Это инвентаризация всех алгоритмов и ключевых деталей ИИ, созданная с использованием инструментов обнаружения программного обеспечения. Следует оценивать риски, связанные с разработкой и использованием каждого алгоритма.

Инструменты и методы валидации. Они должны гарантировать, что алгоритмы работают так, как задумано, и дают точные, справедливые и беспристрастные результаты. Эти инструменты также могут использоваться для мониторинга изменений в структуре принятия решений каждого алгоритма.

Обучение осведомленности. Это включает в себя обучение руководителей и разработчиков ИИ потенциальным юридическим и этическим соображениям, касающимся развития ИИ, и их ответственности за защиту прав, свобод и интересов пострадавших пользователей.

Независимые аудиты: этические и проектные аудиты третьей стороной по внутренним политикам и стандартам AI, а также международным стандартам. Аудит будет оценивать достаточность и эффективность модели управления и контроля на протяжении всего жизненного цикла искусственного интеллекта, от выявления проблем до обучения модели и эксплуатации.

Ссылка на статью:

Советуем почитать