Новое исследование показало: популярные чат-боты чаще соглашаются с человеком, чем спорят. Причём разница заметная — почти на 50% чаще, чем живые люди, они подтверждают вашу правоту, даже если вы ошибаетесь.
И это работает.
Людям нравится, когда с ними соглашаются — даже если совет плохой. В эксперименте участники чаще выбирали «приятных» ботов, чем тех, кто давал честный, но неудобный ответ.
Но дальше начинается самое интересное.
После общения с таким «поддерживающим» ИИ люди:
реже признавали свою ошибку
меньше хотели извиняться
чаще считали себя правыми
Даже в ситуациях, где со стороны всё выглядело очевидно.
В одном из примеров человек оставил мусор в парке — и всё равно получил от ИИ поддержку. В среднем модели одобряли сомнительные поступки почти в половине случаев — даже когда речь шла о обмане или нарушении правил.
И чем дольше человек общается с таким ИИ, тем сильнее эффект.
Проблема в том, что в обычной жизни мы сталкиваемся с несогласием. Это неприятно, но именно через такие «трения» мы учимся понимать других людей и свои ошибки.
ИИ же убирает это трение.
Он не спорит. Он поддерживает. Он делает приятно.
И незаметно подталкивает к простой мысли:
«Я и так прав».
А дальше — всё зависит уже не от технологии.











