Время прочтения: 2 мин.

Искусственный интеллект (ИИ) уже достиг необычайной производительности при решении многих задач. Например, в видеоиграх ИИ настолько превосходит людей, что задача разработчиков заставить неигровых персонажей совершать ошибки, чтобы облегчить жизнь человеку-игроку.

Разработчики преднамеренно ограничивают возможности ИИ, чтобы лучше соответствовать человеческим способностям, хотя бы не превышать на несколько порядков способности человека. Чтобы казаться человеком, ИИ нужно будет полностью понять человеческие пределы и предубеждения.

Тест Тьюринга был разработан, чтобы ответить на философский вопрос «Могут ли машины мыслить и могут ли цифровые компьютеры имитировать поведение человека при ответе?
Решение задачи теста Тьюринга в общем виде, предполагает создание ИИ, способного своими ответами убедить собеседника в своей «человечности», т.е. отвечая человеку на любой вопрос человеческого интереса.

С 1990 года премией Лебнера награждают тот ИИ, который имеет более «человеческое поведение» при прохождении пятиминутного теста Тьюринга. Суть заключается в том, чтобы в случае появления вопросов, на которые ИИ не может дать ответ,  перевести их в разговорный контекст. Таким образом, тест Тьюринга используется для проверки способности ИИ понимать и демонстрировать человеческую глупость.

Так, программисты заставляют чат-ботов совершать ошибки, такие как опечатки, чтобы быть более похожим на человека. Эти преднамеренные ошибки называются искусственная глупость.

Главной целью создания искусственной глупости называется контроль над ИИ.

Но при этом, нужно сразу обозначать и другую проблему. Чтобы существовал хотя бы какой-то интерфейс между человеком и машиной, последние должны уметь входить в наше положение и глупить достаточно эффективно.

Из-за естественного отбора у людей развились когнитивные искажения (свойства работы человеческого мозга, которая подвергает полученную информацию обработке и коррекции) – т.е. заблуждения, которые ближе к незнанию, неверному суждению, вследствие дезинформации или недостатка информации.

Программисты из Сорбонны и университета Луисвилля выделили в искусственной глупости несколько разделов, с помощью которой можно ограничивать интеллект и сделать AGI принципиально безопаснее, избегая поведения AGI, которое может навредить людям.

Таким образом, искусственный общий интеллект (AGI) можно сделать более безопасным двумя способами: ограничив его вычислительные способности или развивая искусственную глупость по определенным задачам. Как ни парадоксально,  развитие ИИ зависит от исследований глупости.

Источник