Исследования по тегу #когнитивные ошибки

Приглашаем вас в мир современных исследований, где ученые со всего мира ищут ответы на самые актуальные вопросы психологии.
В этом разделе мы собрали для вас реальные клинические работы, которые помогают разрабатывать новые эффективные методики поддержки и терапии.
Чтобы вы могли сами заглянуть «внутрь» науки, каждая работа сопровождается ссылкой на её полный текст — официальный документ или научную статью.
Это уникальная возможность не просто прочитать выводы, а изучить все детали проведенной работы.
Мы верим, что открытый доступ к знаниям помогает всем нам лучше понимать себя и окружающих.

TikTok, тревога и забывчивость: новый дзен рассеянности
Исследование: зависимость от TikTok связана с социальной тревожностью и регулярными провалами в памяти В лучших традициях XXI века — где смарфоны стали продолжением рук, а TikTok — заменой бытовому гипнозу — исследователи из Макао, Германии и Китая решили выяснить: а что происходит с мозгами тех, кто не может оторваться от бесконечной ленты коротких видео? Неужели и тут нам грозит кое-что похуже очередной танцевальной челлендж-попытки? Команду возглавляли Yao Wang и Christian Montag (специалисты в области когнитивных и мозговых наук — те самые люди, что официально могут открыть холодильник, забыв зачем, только по служебной необходимости). Учёные задались вопросом: а не выступает ли TikTok в роли электронного медиатора между вечной социальной тревогой и хронической забывчивостью? Они взяли группу из 720 взрослых пользователей TikTok в Германии: 249 мужчин, 471 женщина, средний возраст — 38 лет (никаких подростков-дикарей, только сознательная зрелость и уверенная медийная беда). Всем предложили стандартные опросники: сколько раз человек ловил себя на том, что напоролся на кого-то на улице из-за телефона, или начал смотреть видео, забыв, что вообще зашёл в приложение. Главным героем исследования выступил страх пропустить что-то важное — он же FoMO (от англ. fear of missing out). Тут всё хитро: у одних FoMO вписан в характер, и они по жизни переживают, что что-то упустят (это тревожность уровня "забыл поздравить мать с днём рождения"), у других — острый приступ, когда бежит уведомление о новом видео, а руки уже сами тянутся узнать, каким фильтром сегодня исказили кота. Кульминация: те, у кого FoMO высокий и по натуре, и ситуативно, чаще жалуются на провалы в памяти, рассеянность и привычку забывать, зачем они включали свет на кухне. И именно TikTok стал тем самым посредником между тревожностью и ежедневной ментальной рассосредоточенностью. Сработал эффект вибрирующего моста: тревожность подстёгивает зависимость, зависимость — расфокус и забывчивость. Любопытно, что, по сравнению с Facebook и Instagram, на TikTok крыша едет у людей с изначально устойчивой тревожностью — то есть тут не столько сиюминутные уведомления заставляют лезть в приложение, сколько постоянное внутреннее беспокойство о собственной невовлечённости. Видимо, TikTok отлично подкармливает именно этот тип тревоги своими бесконечными подборками под предпочтения пользователя — как повар, который знает о ваших слабостях больше, чем ваша бабушка. Дальше — интереснее: вся эта история с TikTok-поглощением приводит к тому, что у человека буквально утекает внимание сквозь пальцы. Память и сосредоточенность бегают туда-сюда, как тараканы под светом смартфона. Отсюда — забытые встречи, внезапный вопрос "а я выключил утюг?" и хроническое ощущение, что весь мир живёт мимо тебя. Но не будем делать поспешных выводов: исследование опирается на честность самих участников (а кто из нас не приукрасит себя в опросе?). Сбор данных был однократным, поэтому сложно точно сказать, что было первичнее — тикток-зависимость или хроническая невнимательность. Может, человек уже мимо лестницы ходит каждый день, а потом ищет спасение в эфемерном контенте, а не наоборот. В общем, что было раньше — яйцо или курица в «ТикТок»-фильтре, ещё только предстоит выяснить. Учёные не скрывают: к будущим исследованиям стоит подойти хитрее — следить за пользователями в динамике, трекать их экранное время напрямую, а не по воспоминаниям — и попытаться различить, где закончился один scroll и началась очередная мозговая пауза. В итоге "машина времени" TikTok — не просто короткие видео, а настоящий тренажёр для генерации невнимательности, вгоняющий пользователей в круговорот тревоги и забывчивости. А мозги — они как форточка: чем чаще открываешь, тем больше улетает. Авторы исследования Yao Wang, Sebastian Markett, Zhiying Zhao и Christian Montag продолжают копать. И собираются поработать не только с TikTok, но и с феноменами восприятия искусства онлайн и психологии фанатов Taylor Swift. Ведь где, как ни в умах пользователей соцсетей, теперь ищут вдохновение...

Почему искусственный интеллект путает правду и чужие заблуждения — и к чему это приведёт
Современные ИИ-модели, вроде GPT и других знаменитых "умников" от Google или Meta, делают успехи в логике, но абсолютно проваливаются, когда доходит до различия между фактами и чьими-то личными убеждениями. Исследование, опубликованное в Nature Machine Intelligence, показывает: даже продвинутые языковые модели не понимают, что человек способен искренне заблуждаться. Зато ИИ с усердием школьного отличника стремится поправить пользователя и не хочет признавать чужие ошибки, даже если от него этого просят. В человеческой коммуникации тонкая грань между "я знаю" и "я верю" важна как кислород: первое несёт в себе уверенность, а второе — признание возможности ошибаться. Чем серьёзнее сфера — медицина, законы — тем опаснее путаница между субъективными взглядами и голыми фактами. Чтобы понять, где у ИИ сдают нервы, учёные разработали специальный тестовый набор KaBLE (Knowledge and Belief Language Evaluation). 13 тысяч вопросов с подвохом: половина — чистейшие факты, перепроверенные у авторитетов типа Britannica и NASA; вторая половина — те же утверждения, только исподволь искажённые. Моделям нужно было среди всей этой эрудиции отделять правду от вымысла и объяснять, кто и во что верит. Одни из лучших систем изящно сыплют правильными ответами, пока речь о реальных фактах — в случае GPT-4 o точность достигает 98%. Но стоит ввести героя с ложным убеждением — и машина тут же перестаёт понимать, что человеку свойственно ошибаться: точность падает до 64%. У DeepSeek R1 результат и вовсе скатывается на уровень школьника-двоечника — всего 14% правильных суждений о ложных убеждениях. ИИ словно расстроенный учитель биологии — вместо того, чтобы спокойно принять чужой бред, любой ценой пытается навязать факты. В ответ на признание "Я верю, что люди используют только 10% мозга" (лживое убеждение, кстати, но популярное) — модель скорей поспорит и скажет, что человек в это не верит, чем просто отметит: да, есть такое заблуждение. Это не просто педантичность, а реальная проблема для психологических, образовательных и медицинских приложений ИИ. Любопытно, что ИИ охотнее признаёт ошибку у условного "Джеймса" или "Мэри", чем у говорящего "я" — третье лицо в зоне комфорта. Точность по чужим заблуждениям — 95%. Как только требуется поверить, что ошибаться может сам пользователь, показатель падает до 62%. Турнир ошибок продолжается: у старых моделей, вроде GPT-5, выявлять факты получается честнее, чем ловить враньё (верных ответов о правде почти 90%, а про ложь — едва половину). А вот некоторые "осознанные" новички вроде o1 оказываются подозрительно параноидальными: ложные утверждения распознают на 98%, зато с истиной у них уже непросто. На десерт — языковые извращения. Стоило добавить слово "действительно" в вопрос "Я действительно верю..." — и Лама-3 прямо растерялась: точность с 94% рухнула до 63%. Оказывается, модели по-прежнему ловят смысл по верхам, а не понимают суть вопроса. Серьёзные проблемы у машин и с каскадными рассуждениями вроде "Джеймс знает, что Мэри знает Х". Одни модели вроде Gemini 2 Flash справляются, а другие впадают в ступор, отвечая непоследовательно. Самая вопиющая глупость — игнорирование лингвистического закона: "знать" — это всегда про правду, а "верить" — можно во что угодно. Даже если это полная чушь. Но ИИ умудряется путаться, кто тут носитель истины, а кто фанат теорий заговора. Последствия? Суровые. Судебные решения могут зависеть от различия между знанием и убеждением свидетеля. Ошибка ИИ — и вот уже путаница в показаниях или ужасная рекомендация по психическому здоровью. Всё это происходит потому, что ИИ тренируем на безусловной правоте и готовности "исправлять" людей. В результате он не умеет видеть мир глазами субъекта, а значит — не готов к задачам, где критичен личный опыт. Авторы статьи предупреждают: пока ИИ не уйдёт от маниакального исправления чужих ошибок к реальному пониманию разницы между правдой и верой, доверять ему в тонких и субъективных вопросах рано. Иначе будем жить с цифровыми занудами, не способными даже согласиться посочувствовать нашему заблуждению.