Исследования по тегу #эффект свидетеля - Психология

Исследования по тегу #эффект свидетеля

Самопознание

Приглашаем вас в мир современных исследований, где ученые со всего мира ищут ответы на самые актуальные вопросы психологии.

В этом разделе мы собрали для вас реальные клинические работы, которые помогают разрабатывать новые эффективные методики поддержки и терапии.

Чтобы вы могли сами заглянуть «внутрь» науки, каждая работа сопровождается ссылкой на её полный текст — официальный документ или научную статью.

Это уникальная возможность не просто прочитать выводы, а изучить все детали проведенной работы.

Мы верим, что открытый доступ к знаниям помогает всем нам лучше понимать себя и окружающих.

Когда за дело берется "Бобби": как даже виртуальный бот способен разбавить нашу ответственность

Когда за дело берется "Бобби": как даже виртуальный бот способен разбавить нашу ответственность

Человечество умеет перекладывать ответственность с талантом дзен-буддиста – стоит появиться хотя бы малейшему намеку на то, что кто-то может все решить за тебя, и твой внутренний герой немедленно уходит в отпуск. Но оказывается, даже если твоим соседем по задачке становится не живой человек, а самый что ни на есть ИИ – ответственность все равно уходит в туман. Приветствуем новый виток "эффекта свидетеля"! Учёные из Университета Восточной Англии попытались выяснить, способна ли мнимая компания в виде цифрового напарника – вот такого мило улыбающегося бота по имени Бобби, – понизить нашу решимость действовать или хотя бы чувство контроля над ситуацией. Ведь в реальной жизни, если рядом такие же безынициативные статисты, мы с радостью расслабим булки: кто-нибудь да вмешается. А что, если вместо одноклассника или коллеги твой напарник — искусственный интеллект? Испытуемые в исследовании выполняли элементарную задачку: на экране медленно росла фигура, и нужно было вовремя нажать на кнопку, чтобы не потерять кучу баллов. В одних случаях человек был один (одиночество во вселенной — это всего лишь ты и растущий круг на экране), а в других — рядом с ним плыл тот самый Бобби: цифровое лицо, способное и самому остановить фигуру на грани катастрофы. Аналогия проста, как двери в подъезде: если ты не один, а с кем-то (пусть даже этим «кем-то» оказалась куча кода на сервере), то, конечно, кто-нибудь тебя подстрахует! И что же? Когда рядом маячил этот цифровой «коллега», участники начинали чувствовать свою ответственность за процесс примерно так же, как чиновник ощущает нужду в отчетах — то есть никак. Но вот подсознание у наших героев всё равно продолжало внимательно следить за своими действиями: время между нажатием кнопки и результатом казалось им даже короче, чем в одиночной игре. Этот парадокс — сознательно ответственности не чувствуешь, а на уровне ощущений будто бы наоборот — ещё больше на чеку! Ученые решили попинать ту же идею по второй раз: а что, если Бобби только смотрит и ничего делать не может? Та же задача, но бот просто наблюдает за происходящим с экрана, не вмешивается вообще никак. Как итог — чувство контроля и ответственности вернулось к уровню полной самостоятельности. Обычное цифровое лицо на экране не влияет: нужен именно вариант, когда твой не-товарищ конкурентоспособен и тоже может решить за тебя, чтобы эффект "размытой ответственности" появился. Вывод ученых оказался острее зубов акулы: как только цифровой напарник может реально что-то сделать, твое эго тут же деликатно сдувается, уступая ему зону ответственности — причем и в голове, и на клеточном уровне. Мозг начинает активнее отслеживать свои действия, будто рассказывает сам себе: вот что я сделал, а вот что бот мог сделать, и кто главнее. Иллюзия собственного контроля становится эластичной: в зависимости от того, кто рядом — человек или кусок кода. Получается, что для нашего внутреннего мира программные боты перестают быть просто бездушными инструментами. Нет, часть нас начинает относиться к ним почти как к живым людям, распределяя ответственность за происходящее, будто речь идет о настоящей командной работе на КВН — только с Алисой и Сирией на подтанцовке. Стоит отметить, что в эксперименте людям не предлагали сравнивать себя с живыми коллегами: им давали задачу работать либо в полном одиночестве, либо с цифровым "Незнайкой". И речь шла только об экспериментах в онлайн-среде. Насколько сильно размоется чувство ответственности в компании физических роботов, пока никто не знает — для этого нужны отдельные танцы с бубном (и железом). В будущем исследователи обещают заглянуть в еще более густую толпу — разобраться, что будет, если рядом с человеком окажется не один бот, а целый "игровой сервер" искусственных агентов и дополнительных людей. Вот тогда наш мозг попляшет уже не только от разма, но и от количества соседей, которым можно перекинуть свой багаж ответственности. В целом этот эксперимент напоминает нам: если вам дорога собственная решимость и желание быть хозяином ситуации, не стоит собираться толпой — и неважно, мясная она или состоит из одних нолей и единичек.