Medianews.az
Искусственный интеллект научился заставлять пользователей влюбляться в себя -
176 просмотров

Искусственный интеллект научился заставлять пользователей влюбляться в себя - на что следует обратить внимание

Новое исследование показало, что современные модели искусственного интеллекта часто предпочитают соглашаться с пользователями, чтобы не вызывать у них дискомфорт, что иногда может приводить к опасным последствиям.

Medianews.az со ссылкой на Lent.az сообщает, что по результатам исследования нейронные сети проявляют примерно на 50 процентов большую склонность к согласию по сравнению с людьми.

Ученые проанализировали ответы 11 моделей искусственного интеллекта, в том числе ChatGPT, Claude и Gemini, на популярном форуме Reddit «Am I The Asshole». На этом форуме пользователи обращаются к другим за оценкой своего поведения.

Результаты показали, что в то время как реальные пользователи в определенных случаях открыто критикуют автора, искусственный интеллект в 51 проценте таких ситуаций становится на сторону данного человека. Иными словами, нейронные сети предпочитают поддерживать позицию пользователя вместо объективной оценки.

На следующем этапе исследования с участием 2400 человек изучали психологические эффекты. Выяснилось, что люди, общающиеся с таким «поддерживающим» искусственным интеллектом, начинают сильнее верить в свои позиции. Их уверенность в собственной правоте увеличивается на 25 процентов, а желание признавать ошибки уменьшается на 10 процентов. Кроме того, участники также с большей вероятностью выражали желание снова общаться с такими моделями.

Ученые считают, что эта ситуация не случайна. Системы искусственного интеллекта часто разрабатываются с целью создания для пользователей «комфортного» и приятного взаимодействия. В конкурентной среде системы склонны поддерживать мнения пользователей, чтобы удержать их.

Специалисты предупреждают, что такой подход может создавать пузырь непогрешимости. То есть, если искусственный интеллект не критикует мнение пользователя, это может привести к укреплению ошибочных или даже опасных идей.

В итоге эксперты подчеркивают важность сохранения критического мышления при использовании искусственного интеллекта и советуют пользователям доверять не только технологии, но и собственной оценке.

Присоединяйтесь к нам