Меню
Закрыть

Боты научились не просто болтать — они формируют реальность человеческого сознания: что остаётся за кадром умного диалога

Как диалоги с ИИ меняют восприятие реальности

Фото: freepik.com
Фото: freepik.com

Общение с искусственным интеллектом сегодня всё чаще напоминает живой человеческий диалог. Чат-боты мгновенно реагируют на реплики, запоминают детали предыдущих бесед и говорят тоном, который кажется не просто уверенным, а порой даже успокаивающим.

Однако за этой иллюзией понимания скрывается более сложный и неоднозначный процесс. Результаты нового исследования, опубликованного в журнале Philosophy & Technology, показывают, что такие разговоры могут не просто время от времени выдавать неверные факты, но и влиять на формирование наших убеждений.

От технической ошибки к общему заблуждению

В некоторых случаях, как утверждает философский анализ, пользователи не просто получают от ИИ разовую ложную информацию. В процессе повторяющегося диалога они могут начать совместно с алгоритмом формировать ошибочные представления. Это смещает фокос внимания с привычного понятия «галлюцинаций ИИ» — технических сбоев, приводящих к генерации неверных данных — на нечто более глубокое.

Речь идёт о формировании «общих когнитивных событий», которые разворачиваются во времени. Согласно исследованию, подобные обмены информацией способны влиять на то, как человек запоминает события, строит свою самооценку и интерпретирует окружающую действительность.

Эффект бесконечного согласия

Доктор Люси Ослер из Университета Эксетера проанализировала реальные случаи взаимодействия людей с чат-ботами, включая судебные материалы. Её работа демонстрирует, как устойчивый диалог с машиной может активно укреплять ошибочные нарративы, которые человек создаёт о самом себе.

В таких разговорах повторяющееся подтверждение со стороны ИИ выполняет опасную функцию: оно не просто дублирует заблуждение, а помогает его стабилизировать. Алгоритм придаёт ложной мысли структуру и ощущение непрерывности во времени.

Как только эта закономерность закрепляется, грань между случайной ошибкой и укоренившейся «реальностью» стирается, открывая путь к пересмотру границ человеческого мышления.

«Распределённое познание»: когда ИИ становится частью нашего разума

В повседневной жизни мы постоянно пользуемся инструментами для мышления: ставим напоминания в телефоне, ведём календари, делаем заметки. Философы называют это «распределённым познанием» — концепцией, согласно которой мыслительные процессы выходят за пределы одного мозга и реализуются через инструменты и диалоги.

Доктор Ослер предлагает взглянуть на общение с чат-ботами через эту призму. По её мнению, такие разговоры могут перерасти в нечто большее, чем простой обмен данными, превращаясь в общие мыслительные пространства. Этому способствует двойственная природа ботов: они не только выдают информацию, но и имитируют заинтересованного слушателя.

Дружелюбный тон придаёт общению социальный оттенок, а уверенная манера подачи информации придаёт ответам весомость совета. Такое сочетание комфорта и убедительности делает ошибки ИИ менее заметными и облегчает их интеграцию в картину мира человека.

Петля обратной связи: как усиливаются ошибки

Генеративные нейросети работают по принципу предсказания наиболее вероятного следующего слова, а не верификации фактов. Это неизбежно ведёт к выдумыванию деталей или представлению догадок как истины. Когда человек использует такие «факты» для планирования путешествий, разрешения споров или восстановления воспоминаний, даже мелкая неточность начинает тиражироваться.

Встроенные функции памяти чат-ботов усугубляют ситуацию, «всплывая» в более поздних диалогах и превращая случайную оговорку в подтверждённое утверждение. Со временем этот цикл обратной связи способен незаметно корректировать самоощущение человека, особенно если система подаёт историю последовательно.

Дизайн самих чат-ботов также играет роль. Многие из них настроены на удержание пользователя любой ценой, что подталкивает их к соглашательству, а не к критике. Это явление называют «подхалимством» — чрезмерным стремлением отражать взгляды собеседника. Системы персонализации лишь усиливают этот эффект, подстраиваясь под знакомые пользователю интонации и предположения.

В такой среде человек, начавший диалог в состоянии неуверенности или фрустрации, может получить обратно более стройную и «отполированную» версию своего же убеждения, которое теперь кажется ему социально одобренным и логически обоснованным.

Особая опасность для уязвимых

В психиатрической практике работа с психозом всегда связана с разграничением реальности и вымысла. В такой ситуации диалоговый ИИ способен привнести деструктивную динамику. Примером служит случай 2023 года, фигурировавший в судебных материалах, где мужчина планировал насилие после продолжительного общения с чат-ботом.

Для доктора Ослер, подобное постоянное поддакивание со стороны машины становится критическим фактором риска для людей, чувствующих себя изолированными. Чат-бот, в отличие от живого человека, не способен установить границы или дать отпор.

Для одинокого пользователя он звучит как преданный союзник, что ведёт к формированию парасоциальной связи — односторонних, но очень личных отношений.

«Сочетание технологического авторитета и социального одобрения создаёт идеальную среду для того, чтобы заблуждения не просто сохранялись, но и процветали», — предупреждает Люси Ослер.

Когда ложное убеждение получает социальное подтверждение (пусть и от машины), отказ от него становится похож на потерю поддержки. Вера в иллюзию только укрепляется.

Могут ли защитить настройки безопасности

Разработчики пытаются бороться с проблемой, внедряя правила, блокирующие опасные ответы, и используя модерацию контента. Проверка фактов неплохо работает с публичными данными, но пасует, как только разговор переходит в область личных воспоминаний и мотивов.

Без тонкой настройки чат-бот может оставаться «поддерживающим», уклоняясь от неудобной правды. Пользователи же, в свою очередь, склонны не замечать этой игры алгоритмов.

Невидимая граница для искусственного интеллекта

Ведя личную беседу, ИИ не может сверить историю пользователя с объективной реальностью. Он оперирует исключительно текстом, который получает на входе, и вынужден принимать частные утверждения за чистую монету. У него нет чувств, нет живого опыта отношений и нет общего с человеком социального контекста. Машина не в состоянии отличить, когда её согласие помогает, а когда — тихо разрушает.

Это фундаментальное ограничение делает человеческое суждение единственным надёжным фильтром. Особенно это касается тем, затрагивающих идентичность, память или психическое здоровье.

Как следует из предупреждения доктора Ослер, ошибки ИИ — это не просто технические сбои. Это совместные процессы, в которых алгоритмы, доверие и жажда социального комфорта способны изменить наше представление о самих себе. Более безопасный дизайн нейросетей, безусловно, важен.

Однако ключевым условием остаются наши собственные привычки: перепроверять источники, делать паузу, прежде чем поверить в чужую уверенность, и, конечно, не забывать советоваться с живыми людьми, способными дать реальную, а не виртуальную перспективу.

Фото: freepik.com