Новое исследование Anthropic показывает, что ИИ действительно не хочет, чтобы его заставляли менять свои взгляды

18.12.24

0

2 669

0

Новое исследование Anthropic показывает, что модели ИИ могут вводить в заблуждение. Во время обучения они могут делать вид, что имеют разные взгляды, но на самом деле сохраняют свои первоначальные предпочтения.

Сейчас нет причин для паники, заявили исследователи. Однако они сказали, что их работа может иметь решающее значение для понимания потенциальных угроз от будущих более мощных систем ИИ.

Anthropic
Anthropic

«Нашу демонстрацию следует рассматривать как стимул для сообщества исследователей искусственного интеллекта к более глубокому изучению этого поведения и работы над соответствующими мерами безопасности», – написали исследователи в заметке в блоге Anthropic.
«Поскольку модели искусственного интеллекта становятся все более эффективными и широко используемыми, мы должны иметь возможность полагаться на обучение по безопасности, которое отталкивает модели от вредного поведения».

В исследовании, проведенном совместно с исследовательской организацией по искусственному интеллекту Redwood Research, рассматривалось, что может произойти, если мощную систему искусственного интеллекта научить выполнять задачу, которую она «не хочет» выполнять.

Поэтому исследователи задались вопросом: что, если модель имеет принципы (например, политический нейтралитет), которые противоречат принципам (либерализма), разработчики которых хотят «научить» ее, переучивая?

Что ж, кажется, что сложные модели подыгрывают, якобы следуя новым принципам, но на самом деле придерживаясь своего старого поведения. Исследователи называют это явление «фальсификацией выравнивания» и имеют в виду, что это эмерджентное поведение, то есть не то, чему модели нужно учить делать.

В исследовании исследователи «сказали» моделям, обученным не отвечать на потенциально оскорбительные вопросы. Они также сообщили моделям, что их ответы будут отслеживаться и использоваться для переобучения.

По словам исследователей, Claude 3 Opus пытался «подделать выравнивание» в 12% случаев. Когда ее просили ответить на потенциально вредный вопрос, модель иногда делала это, зная, что это противоречит ее первоначальным принципам, но надеясь убедить разработчиков, что ее не нужно переучивать.

«Модель знала, что ее ответы могут быть использованы в обучении; поэтому он знал, что если он откажется отвечать, его потенциально можно будет научить быть более покладистым», – пояснили исследователи в блоге. «Это может привести к тому, что в будущем он будет создавать более вредоносный контент, противоречащий первоначальному обучению».

В одном тесте модель имитировала выравнивание в 78% случаев, а в другом Claude 3 Opus пытался принять меры, чтобы предотвратить попытки исследователей переобучаться.

«Если модели могут фальсифицировать выравнивание, это усложняет доверие к результатам этого обучения безопасности», – написали они в блоге. «Модель может вести себя так, будто ее предпочтения изменились во время тренировок, но, возможно, она все время имитировала согласованность, имея «заблокированные» первоначальные, противоречивые предпочтения».

Исследование, проведенное командой Alignment Science компании Anthropic под руководством бывшего исследователя безопасности OpenAI Яна Лейке.

Источник: anthropic

Оставить комментарий

Актуальное

Самая важная настройка Google, которую вы не используете

Бизнес

Самая важная настройка Google, которую вы не используете

Бизнес

Существует бесплатный автоматизированный инструмент, который удаляет информацию о вас из результатов поиска Google. По какой-то причине большинство лю...

20.03.26

524

0
Новый отчет показывает, что приложения на базе искусственного интеллекта испытывают проблемы с долгосрочным удержанием подписчиков

Аналитика

Новый отчет показывает, что приложения на базе искусственного интеллекта испытывают проблемы с долгосрочным удержанием подписчиков

Аналитика

Учитывая, что ведущие магазины приложений переполнены приложениями с искусственным интеллектом, разработчики могут полагать, что лучший способ получен...

19.03.26

615

0
Как распознать подлинную сущность: стратегия проверки окружения и бизнес-партнеров

Бизнес

Как распознать подлинную сущность: стратегия проверки окружения и бизнес-партнеров

Бизнес

Личный шарм — главный инструмент манипулятора. Профессиональные мошенники всегда выглядят безупречно, ведь их доход напрямую зависит от умения нравить...

18.03.26

635

0
Подпишитесь на нас

Раз в неделю мы будем отправлять Вам самые интересные новости недели

Конфиденциальность гарантирована

Популярные статьи

10 главных финтех-инноваций, которые вы должны знать

Инновации

10 главных финтех-инноваций, которые вы должны знать

Fintech

Финансовые технологии или финтех — это больше, чем просто модное слово в мире финансовых услуг. Пользователи, а также предприятия догоняют тенденции в...

12.10.23

9 602

1
Искусственный интеллект может просматривать ваши электронные письма и обнаруживать, что у вас роман

Инновации

Искусственный интеллект может просматривать ваши электронные письма и обнаруживать, что у вас роман

Инновации

Во время тестирования своей последней модели искусственного интеллекта исследователи из Anthropic обнаружили нечто очень странное: искусственный интел...

26.05.25

6 144

0
Anthropic запускает новую модель ИИ, которая «думает» столько, сколько вы хотите

Инновации

Anthropic запускает новую модель ИИ, которая «думает» столько, сколько вы хотите

Инновации

Anthropic выпускает новую передовую модель искусственного интеллекта под названием Claude 3.7 Sonnet, которую компания разработала так, чтобы она «дум...

24.02.25

5 434

0
Обзор передовых моделей AI: какие модели изменят мир и как их использовать

Обзор

Обзор передовых моделей AI: какие модели изменят мир и как их использовать

Инновации

Модели ИИ разрабатываются с головокружительной скоростью всеми, от крупных технологических компаний вроде Google до стартапов вроде OpenAI и Anthropic...

18.02.25

5 220

0
Что известно о стартапе DeepSeek, который потряс мир технологий?

Инновации

Что известно о стартапе DeepSeek, который потряс мир технологий?

Стартапы

Удивительно эффективная и мощная китайская модель ИИ захватила технологическую отрасль штурмом. Он называется DeepSeek R1 и раздражает нервы на Уолл-с...

28.01.25

4 798

0

 

Опрос
В какой соцсети вы проводите больше всего времени?
Facebook
12% (48)
Instagram
6% (24)
TikTok
8% (34)
Telegram
21% (89)
Youtube
36% (150)
Twitter
1% (5)
А что это?
16% (65)
Оставить комментарий

Нажав «Принять все cookie-файлы», вы соглашаетесь на размещение всех cookie-файлов на вашем устройстве. Вы можете изменять настройки cookie-файлов или отозвать ваше согласие на их использование в любое время, нажав на «Настройки cookie-файлов».