Ошибки ИИ пугают людей больше угрозы остаться без работы

Исследование, проведенное компанией Anthropic и...

фото: freepik

Исследование, проведенное компанией Anthropic и опубликованное в The Financial Times, выявило, что пользователи искусственного интеллекта (ИИ) больше обеспокоены возможными ошибками нейросетей, чем потенциальной угрозой потери работы.

Опрос, охвативший более 80 тысяч пользователей чат-бота Claude из 159 стран, показал, что 27% респондентов считают главной проблемой генерацию ложной информации (галлюцинации) чат-ботами. В то же время, угрозу потери рабочих мест из-за развития ИИ отметили лишь 22% участников. Еще 16% выразили обеспокоенность влиянием технологий на способность человека к критическому мышлению.

В рамках настоящего исследования было проведено интервьюирование с использованием специализированного ИИ-сервиса Claude Interviewer, разработанного компанией Anthropic. Руководитель проекта, доктор Саффрон Хуан, подчеркнула существование значительных региональных различий в восприятии искусственного интеллекта (ИИ). По ее наблюдениям, в странах с низким и средним уровнем дохода наблюдается более оптимистическое отношение к ИИ по сравнению с государствами с высоким уровнем дохода. Это может быть обусловлено тем, что в последних влияние технологий более ощутимо, что приводит к более скептическому восприятию их роли и последствий.

В частности, жители Южной Америки, Африки, Южной и Юго-Восточной Азии демонстрируют значительно более позитивное отношение к техническому прогрессу, чем европейцы, американцы и жители Восточной Азии. Это наблюдение подтверждается рядом социологических и экономических исследований, которые указывают на корреляцию между уровнем дохода и степенью доверия к инновационным технологиям.

Для иллюстрации последствий ошибок, связанных с использованием ИИ, The Financial Times приводит случай, произошедший в декабре 2025 года с системой Kiro AI, разработанной по заказу компании Amazon Web Services. В результате технического сбоя, вызванного некорректными действиями разработчика, система внесла непредвиденные изменения в конфигурацию, что привело к 13-часовому простою. Amazon Web Services утверждает, что инцидент был вызван действиями человека, а не ошибками в функционировании ИИ. Важно отметить, что система Kiro AI требует авторизации на уровне доступа, однако у разработчика оказались расширенные полномочия, что позволило ему внести несанкционированные изменения.

Этот инцидент подчеркивает необходимость внедрения строгих мер безопасности и контроля доступа при использовании ИИ-систем. Он также демонстрирует важность проведения регулярных аудитов и проверок для предотвращения подобных ситуаций в будущем.