Саморазвитие

Обзор книги «Оружие математического разрушения»

Время прочтения: 4 мин.

Мы живем в эпоху ускоряющегося технического прогресса. Высокие технологии и “большие данные” всё больше влияют на нашу повседневную жизнь. Но всегда ли это влияние положительное? Делают ли новые технические возможности наш мир лучше, комфортнее, справедливее, наконец, или же бывает и наоборот? Книга Кэти О’Нил «Оружие математического разрушения» («Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy») заставила меня задуматься над такими вопросами. Я хочу представить вам обзор этой книги, которая по моему мнению не оставит равнодушным ни одного читателя.

Кэти О’Нил — обозреватель Bloomberg Opinion, профессор, математик, основатель компании по алгоритмическому аудиту, опираясь на собственный опыт наблюдений и свои исследования делится мыслью о том, что в некоторых случаях алгоритмы, основанные на “больших данных” и машинном обучении, усугубляют неравенство, и даже угрожают демократии.
Любая модель по определению представляет собой некое упрощение. Что включить в модель, а что выкинуть как несущественное — зависит от тех, кто эту модель создает. Как говорит Кэти О’Нил, «модели – это мнения, воплощенные в математике». И не все модели одинаково хороши. «По своей сути алгоритмы недостаточно честны, ведь человек, который придумывает их, хочет добиться успеха», – объясняет она.
С точки зрения автора, одни алгоритмы могут принести пользу, в то время как другие – нанести вред. В своей книге «Оружие математического разрушения» она приводит ряд интересных кейсов.
Одна из существенных проблем, которую описывает автор в своей книге – использование замещающих переменных. Нередко бывает так, что получить данные о каком- то желаемом свойстве нет возможности, и в таком случае используются переменные, значение которых коррелирует с этой неизвестной переменной.
Скажем, работодатели, подыскивая сотрудника, хотят знать, насколько добросовестен, ответственен и порядочен тот или иной кандидат. Действительно, затруднительно измерить эти важные человеческие качества… Многие работодатели смотрят на кредитные рейтинги для оценки своих потенциальных сотрудников считая, что человек, вовремя оплачивающий счета, более ответственно относится и к работе. Но каждый случай индивидуален, считает О’Нил, и прекрасный ответственный специалист может иногда оказаться в стесненных обстоятельствах. Однако, у него меньше шансов найти работу из-за алгоритма, в котором плохое выполнение работы коррелируется с низким кредитным рейтингом. Ситуация безработного ухудшается, его рейтинг падает все ниже вместе с шансами на трудоустройство. Получается порочный круг, нисходящая спираль. И таких токсичных приложений, по мнению автора, в алгоритмах много. Их общая черта — еще больше обогащать богатых и разорять бедных. Они непрозрачны, непререкаемы и не имеют обратной связи.
Вот как об этом написано в книге: «Учитывая то, что статистические модели чаще всего работают, эффективность повышается, а прибыли растут. Инвесторы удваивают спрос на научные системы, которые, как им кажется, размещают тысячи людей в правильных интервалах. Это – триумф Больших данных. Но, что если конкретный человек окажется в неправильном интервале? Такое случается. При этом не существует никакой обратной связи, которая помогла бы исправить ошибку. Они просто считаются небоевыми потерями… И учитывая, что вся непрозрачная система работает где-то на отдаленном сервере, они об этом, как правило, даже не узнают. Большинство из них, вероятно, предполагают, и не без причины, что жизнь просто несправедлива.»
Также, в книге затронута такая тема, как таргетированная реклама. На первый взгляд, довольно безобидная штука. Ничего ужасного нет в том, что нам предлагают купить именно то, что мы недавно гуглили. Однако, наряду со вполне легитимными и приемлемыми примерами использования, существуют и злоупотребления, граничащие с мошенничеством. Например, организаторы рекламных кампаний специально отслеживают небогатые и уязвимые группы населения, чтобы «подсунуть» им краткосрочные кредиты с завышенными процентными ставками (при том, что они могли бы на самом деле получить гораздо более выгодный кредит).
Кэти О’Нил в своей книге призывает разработчиков моделей взять на себя бОльшую ответственность за свои алгоритмы, а политиков — за использование этих алгоритмов. Но, наверное, нам тоже не мешало бы лучше разбираться в моделях, управляющих нашей жизнью.

А как вы думаете насколько могут быть опасны математические алгоритмы?
Возможно кто-то посчитает, что не стоит делать из алгоритмов «козла отпущения», ответственного за проблемы общества, и что вопросы предвзятости, ответственности и этических ценностей существуют независимо от того, используются алгоритмы или нет.
Или все-таки алгоритмы регулируют нашу жизнь…?

Советуем почитать