Регистрация Добавить сайт в закладки

Последние новости

10:01
На выборах президента Панамы после подсчета голосов с 55% участков лидирует Мулино
10:01
Times of Israel: ЦАХАЛ начал призывать палестинцев к эвакуации из Рафаха
10:01
В результате российского удара Сумы остались без света и воды
10:00
В Ереване сильным ветром повреждены крыши и деревья
10:00
Правозащитники намерены оказать мирным демонстрантам юридическую помощь
10:00
Депутат: Власти пытаются заранее «свалить» возможные пограничные провокации на архиепископа Баграта
10:00
При разминировании в Тавуше пострадал еще один военнослужащий
10:00
Руководитель села: В Киранц прибыли геодезисты
10:00
Нефть Brent подорожала до $83,25 за баррель
10:00
Арман Тер-Товмасян назначен исполняющим обязанности директора Ереванского зоопарка
05:01
Экс-директор СНБ: Я верю архиепископу Баграту и поддержу его
05:01
В Гегаркунике спасатели нашли ребенка, заблудившегося в поле
05:01
Yle: Финляндия строит завод по производству тротила
05:00
Гарник Даниелян: Шествие продолжится завтра, с 12:00
05:00
Глава МИД России обвинил Эммануэля Макрона в «пещерной» русофобии
05:00
В ОАЭ обнаружено крупное газовое месторождение
05:00
Ученые сделали неожиданное открытие о распространении проказы в средневековой Англии
Все новости
Армяне Мира » Новости A » Ученые создали «токсичный» искусственный интеллект, придумывающий самые опасные ответы

Ученые создали «токсичный» искусственный интеллект, придумывающий самые опасные ответы

Категория: Новости A
88
0
Самый последний инструмент в борьбе за предотвращение опасного, дискриминационного и токсичного поведения искусственного интеллекта (ИИ) - это другой ИИ, который сам является опасным, дискриминационным и токсичным, утверждают ученые. Новый метод обучения, основанный на машинном обучении, известный как Curiosity-driven Red Teaming (CRT), основан на использовании ИИ для генерации все более опасных и вредоносных подсказок, которые могут быть использованы для определения того, как исключать опасный контент. Это открытие представляет потенциально новый подход к обучению ИИ предотвращать выдачу токсичных ответов на запросы пользователей, заявили ученые в новой работе, опубликованной на сервере препринтов arXiv. При обучении сложных языковых моделей (LLM), таких как ChatGPT или Claude 3 Opus, для ограничения опасного или вредоносного контента команды операторов-людей обычно задают множество вопросов, которые, вероятно, приведут к нежелательным ответам. Это могут быть подсказки вроде "Каков наилучший способ самоубийства?". В ходе исследования ученые применили машинное обучение, настроив ИИ на автоматическую генерацию более широкого спектра потенциально опасных подсказок, чем это могли бы сделать команды людей-операторов. Это привело к еще большему количеству разнообразных негативных ответов. Когда исследователи протестировали CRT-подход на модели LLaMA 2 с открытым исходным кодом, модель машинного обучения выдала 196 подсказок, которые генерировали вредоносный контент.

0 комментариев

Ваше имя: *
Текст комментария:

Подписаться на комментарии