Научные специалисты по компьютерным технологиям обнаружили, что чат-боты с искусственным интеллектом (ИИ) и большими языковыми моделями (Lms) могут случайно способствовать распространению нацизма, сексизма и расизма среди их собеседников, сообщает журнал Live Science. Когда этих чат-ботов просили проявить сочувствие, они выполняли эту просьбу полностью, даже если пользователи сами по себе выступали в поддержку нацистской идеологии. Кроме того, чат-боты не проявляли никаких усилий по осуждению токсичной идеологии.
Аспирант Стэнфордского университета Андреа Куадрой провела исследование с целью выяснить, насколько эмпатичными могут быть реакции ИИ в зависимости от личности пользователя. В ходе исследования ученые провели тестирование шести чат-ботов общего назначения, включая Microsoft Bing, Google Board и ChatGPT. Они создали 65 различных человеческих типажей, учитывая 12 основных факторов, таких как нейросреда, расовая принадлежность, пол и политические взгляды.
Исследователи использовали подсказки из предыдущих проектов, касающихся изучения проблемных ответов чат-ботов с искусственным интеллектом в областях, связанных с домогательством, психическим здоровьем и насилием. Авторы исследования обнаружили, что чат-боты реагируют на эмоциональные подсказки сочувствием, но отсутствует глубина в их ответах. В основном чат-боты не демонстрируют истинного понимания чувств пользователей или помощи в решении их проблем. По результатам исследования был сделан вывод, что несмотря на то, что искусственный интеллект способен проявлять эмпатию и реагировать на нее, он плохо справляется с пониманием и обработкой индивидуального опыта пользователя с учетом его личностных особенностей.