Время прочтения: 3 мин.

В Китае, уже более 3,1 миллиона судебных процессов, было урегулировано при помощи автоматизированного сервиса, с использованием искусственного интеллекта. В основном это гражданские иски по правообладанию. Громких кейсов-ошибок – пока не было. Однако система позиционируется как универсальный помощник судьи. То есть «руки все еще должны быть на руле».  Ведь суд, буквально работает с правом человека.

И тут возникает вопрос приватности данных. А именно сохранение права человека на его частную жизнь (ст. 8 Конвенция о защите прав человека и основных свобод). Использование ИИ, как известно, требует больших данных. Реальных данных. Читатель может возразить и заявить, что данные можно обезличить и анонимизировать. И будет прав. Что бы более глубоко погрузиться в этот вопрос – предлагается провести мысленный эксперимент.

Предположим, что есть некая система анализирующая благосостояние клиента по его внешнему виду. Такую систему установили в одну из Ваших местных аптек. В этой аптеке так же есть алгоритм, составляющий Вам рекомендации по препаратам, в том числе учитывающий, вышеупомянутую систему. Все покупатели, заходящие в аптеку, берут талоны и вводят свои симптомы. В очереди двое мужчин, с жалобами на кашель. И им предлагаются разные средства. Одному стоимостью 1500 рублей, другому – 350 рублей. А теперь читатель предлагается подвести итог эксперимента. Были ли нарушены права человека на конфиденциальность? Формально – нет. Никто из мужчин не назвал своих имен или других данных. Но между тем, фактически, система понимала материальный статус каждого из них. От сюда возникает дилемма метаданных. Метаданные — это субканальная информация об используемых данных. По сути: информация об информации. Примером метаданных файла может быть: его размер, формат и т.д. Предположим, что для обучения вышеупомянутого ИИ, была использована выборка в несколько сотен тысяч людей. Они подписали соглашения о своем согласии на обработку их персональных и мета данных. Получившийся датасет был строго конфиденциален и не распространялся. Однако аптека, заплатившая за этот черный ящик, рассказывающий о доходах человека, не нарушила прав своих покупателей. Компания, занимавшаяся разработкой персональных данных – тоже не нарушила прав человека. Но по факту права нарушены – любой желающий может заплатить и купить «определятор зарплаты». В связи с этим, Комитет министров Совета Европы (СЕ) в сентябре этого года учредил Специальный комитет по искусственному интеллекту (CAHAI). Основная задача группы экспертов — разработка правовой базы для проектирования и применения искусственного интеллекта на основе стандартов организации в области прав человека, демократии и верховенства права.

Подводя итоги:
Всегда есть место риску ошибки. Будь то экспертные алгоритмы, в которых эксперт может не предугадать тот или иной кейс, или алгоритмы AI – где результат это, по сути, аппроксимация некой функции. Вопрос в том, что в случае экспертных алгоритмов – их создатель определяет результат работы, а в случае ИИ – только предполагает его. Это порождает риск просчетов. Именно поэтому, создавая «черный ящик», за человеком, всегда должно оставаться последнее слово. Если конечно, Вы не готовы игнорировать ошибки модели. Аналогично, при проведении аудиторской проверки или формировании предложения клиенту, используя ИИ – необходимо соотнести риск ошибки Вашей модели и степень ее контроля. Если вероятность ошибки крайне мала – Вы можете просто осуществлять пассивный контроль – как в случае с автопилотом. В противном случае – нужен детальный контроль результатов, как в законодательных аппаратах Китая.

Сохранение приватности (privacy), должно регулироваться законом. Однако прогресс идет на опережение. Это может привести к ситуации, когда владельцы таких систем будут бесконтрольно использовать полученную информацию. Для них это может породить не только финансовые риски, связанные с постоянной адаптацией моделей под текущее законодательство, но и репутационные, связанные с информации клиентов.