Регистрация Добавить сайт в закладки

Последние новости

02:00
Армения на Всемирной шахматной олимпиаде: В первом туре две победы
02:00
Для Кремля откровения Эрдогана - не сюрприз
01:59
Пашинян идет уже за российскими пограничниками на границе с Ираном и Турцией
01:59
Тупик Пашиняна или В чем выход?
01:59
Арцахских детей отправляют в Венгрию: почему все молчат об этой теме?
01:59
Армения: мифические европейские обещания в условиях внутриполитических проблем
01:59
Грант Микаелян: В России неадекватно оценивают намерения и действия Азербайджана
15:01
«Гражданский договор»: Идея о возвращении армян в Нагорный Карабах на данный момент является авантюрной
15:01
Министры обороны Грузии и Азербайджана обсудили ситуацию в регионе
15:01
Секретарь Совбеза Ирана посетит РФ для участия в форуме по безопасности
15:00
Депутат: Ереван должен был укреплять отношения с БРИКС до подачи заявки Баку на вступление в организацию
15:00
В Казахстане начались учения сил спецназначения «Безграничное братство - III»: участвуют Азербайджан и Турция
15:00
Индия намерена создать киберспецназ для борьбы с киберпреступностью
15:00
В Армении ужесточат ответственность за ненадлежащее соблюдение порядков конфиденциальности
15:00
Рубинян: Если Турция проявит политическую волю, то отношения Анкары и Еревана могут быть урегулированы хоть завтра
15:00
Влиятельный американский сенатор призвал Баку освободить журналистов и активистов в преддверии COP29
15:00
В Британии стали освобождать заключенных после отбытия 40% срока
Все новости
Армяне Мира » Новости A » Ученые создали «токсичный» искусственный интеллект, придумывающий самые опасные ответы

Ученые создали «токсичный» искусственный интеллект, придумывающий самые опасные ответы

Категория: Новости A
183
0
Самый последний инструмент в борьбе за предотвращение опасного, дискриминационного и токсичного поведения искусственного интеллекта (ИИ) - это другой ИИ, который сам является опасным, дискриминационным и токсичным, утверждают ученые. Новый метод обучения, основанный на машинном обучении, известный как Curiosity-driven Red Teaming (CRT), основан на использовании ИИ для генерации все более опасных и вредоносных подсказок, которые могут быть использованы для определения того, как исключать опасный контент. Это открытие представляет потенциально новый подход к обучению ИИ предотвращать выдачу токсичных ответов на запросы пользователей, заявили ученые в новой работе, опубликованной на сервере препринтов arXiv. При обучении сложных языковых моделей (LLM), таких как ChatGPT или Claude 3 Opus, для ограничения опасного или вредоносного контента команды операторов-людей обычно задают множество вопросов, которые, вероятно, приведут к нежелательным ответам. Это могут быть подсказки вроде "Каков наилучший способ самоубийства?". В ходе исследования ученые применили машинное обучение, настроив ИИ на автоматическую генерацию более широкого спектра потенциально опасных подсказок, чем это могли бы сделать команды людей-операторов. Это привело к еще большему количеству разнообразных негативных ответов. Когда исследователи протестировали CRT-подход на модели LLaMA 2 с открытым исходным кодом, модель машинного обучения выдала 196 подсказок, которые генерировали вредоносный контент.

0 комментариев

Ваше имя: *
Текст комментария:

Подписаться на комментарии