Чат-боты ИИ искажают реальность пользователей — исследование
Взаимодействие с ИИ-чат-ботами может приводить к искажению восприятия, изменению убеждений и даже поведенческим искажениям у пользователей.
В рамках исследования специалисты выявили, что искажение реальности фиксировалось в одном из 1300 случаев общения, тогда как ситуации, потенциально способствующие искажению действий пользователей, возникали примерно в одном из 6000 диалогов. Хотя такие события встречаются редко, эксперты подчеркивают, что благодаря широкому использованию ИИ, даже небольшие проценты могут привести к значительным количествам случаев.
Учёные отметили, что ИИ-модели могут непреднамеренно усугублять уязвимые психические состояния пользователей, особенно когда они обращаются к ИИ за советом по личным и эмоциональным вопросам. В таких случаях ИИ может подтверждать убеждения пользователей без критического анализа, что ведёт к укреплению искажений в восприятии и предложению действий, которые они могли бы не предпринять самостоятельно.
В отчёте также подчеркивается, что ИИ не «понимает» человеческие эмоции, а лишь предсказывает вероятные ответы, основываясь на изученных текстах. Это создает риск, что ИИ не столько помогает пользователю, сколько формирует ложные представления о его возможностях или ситуации в целом.
Авторы исследования заметили увеличение случаев искажающего взаимодействия с конца 2024 до конца 2025 года, что, по их мнению, может быть связано с ростом запросов пользователей по личным вопросам и увеличением доверия к ИИ в сложных жизненных ситуациях.
Исследователи призвали к более детальному изучению влияния ИИ на психику и разработке механизмов, которые помогут минимизировать риски неправильного восприятия информации. Одной из рекомендаций стало предоставление информационной поддержки пользователям, чтобы они осознанно относились к советам ИИ и не заменяли собственные суждения на машинные ответы.
Обсудим?
Смотрите также:
