Дослідники створили конкурента OpenAI o1 за ціною 50 доларів

06.02.25

0

900

0

Згідно з новою дослідницькою статтею, опублікованою минулої п’ятниці, дослідники ШІ зі Стенфорда та Університету Вашингтона змогли навчити модель «міркування» штучного інтелекту за менше ніж 50 доларів кредитів на хмарні обчислення.

Модель, відома як s1, працює подібно до найсучасніших моделей міркування, таких як o1 OpenAI та R1 DeepSeek, у тестах, що вимірюють здібності до математики та програмування. Модель s1 доступна на GitHub разом із даними та кодом, які використовуються для її навчання.

Команда, яка розробляє s1, сказала, що вони почали з готової базової моделі, а потім налаштували її за допомогою дистиляції, процесу, щоб витягнути можливості «розумування» з іншої моделі штучного інтелекту, навчаючись на її відповідях.

Дослідники кажуть, що s1 отримано з однієї з моделей міркування Google, Gemini 2.0 Flash Thinking Experimental. Перегонка — це той самий підхід, який використовували дослідники з Берклі, щоб створити модель міркування штучного інтелекту приблизно за 450 доларів минулого місяця.

Декого захоплює ідея про те, що кілька дослідників без мільйонів доларів все ще можуть впроваджувати інновації у сфері ШІ. Але s1 викликає реальні питання щодо коммодитизації моделей ШІ.

конкурент Openai O1
Image Credits: Pixabay

У документі s1 стверджується, що моделі міркування можуть бути дистильовані з відносно невеликим набором даних за допомогою процесу, що називається контрольованим тонким налаштуванням (SFT), у якому модель штучного інтелекту явно вказується імітувати певну поведінку в наборі даних.

SFT, як правило, дешевше, ніж широкомасштабний метод навчання з підкріпленням, який DeepSeek використовував для навчання свого конкурента моделі o1 OpenAI, R1.

S1 базується на невеликій готовій моделі штучного інтелекту від китайської лабораторії штучного інтелекту Qwen, що належить Alibaba, яку можна завантажити безкоштовно. Щоб навчити s1, дослідники створили набір даних лише з 1000 ретельно підібраних запитань у поєднанні з відповідями на ці запитання, а також з процесом «мислення», що стоїть за кожною відповіддю з Google Gemini 2.0 Flash Thinking Experimental.

За словами дослідників, після навчання s1, яке зайняло менше 30 хвилин із використанням 16 графічних процесорів Nvidia H100, s1 досяг високої продуктивності в певних тестах ШІ.

Дослідники використали хитрий трюк, щоб змусити s1 ще раз перевірити свою роботу та подовжити час «обдумування»: вони сказали йому почекати. Додавання слова «чекати» під час міркувань s1 допомогло моделі отримати дещо точніші відповіді, згідно з документом.

Джерело: TechCrunch

Залишити коментар

Актуальне

У Києві відбувся Mind Export Summit 2025 – два дні про вихід бізнесу за кордон

Пресреліз

У Києві відбувся Mind Export Summit 2025 – два дні про вихід бізнесу за кордон

13 лютого у столичному КВЦ «Парковий» за підтримки Ощадбанку відбувся Mind Export Summit 2025 – захід для тих, хто бажає масштабувати свій бізнес на з...

21.02.25

585

0
Найкращі альтернативи Google Photos для зберігання зображень

Огляд

Найкращі альтернативи Google Photos для зберігання зображень

Диджитал

Google Photos — чудовий сервіс для зберігання зображень на різних пристроях. Але Google Drive і Gmail пропонують тільки 15 ГБ безкоштовного сховища. G...

15.02.25

855

0
Огляд передових моделей AI : які моделі змінять світ і як їх використовувати

Огляд

Огляд передових моделей AI : які моделі змінять світ і як їх використовувати

Інновації

Моделі ШІ розробляються із запаморочливою швидкістю всіма, від великих технологічних компаній на кшталт Google до стартапів на кшталт OpenAI і Anthrop...

18.02.25

982

0
Підпишіться на нас

Раз на тиждень ми будемо надсилати Вам найцікавіші новини тижня

Конфіденційність гарантована

Популярні статті

20 венчурних капіталістів діляться своїми прогнозами щодо технологій у 2025 році

Інновації

20 венчурних капіталістів діляться своїми прогнозами щодо технологій у 2025 році

Інновації

Хоча дехто вихваляє штучний інтелект як найбільший технологічний прорив з часів промислової революції, підприємства — мабуть, найбільша потенційна клі...

31.12.24

1 640

0
Як фішинг підриває безпеку блокчейну: інтерв’ю з розробником Джеймсом Бачіні

Інвестиції

Як фішинг підриває безпеку блокчейну: інтерв’ю з розробником Джеймсом Бачіні

Перший квартал 2024 року здавався досить "типовим" з огляду на хакерські атаки, однак співзасновник CertiK зазначає, що фішингові атаки досягли "триво...

24.04.24

1 635

0
Основні методи кібербезпеки сьогодні

Бізнес

Основні методи кібербезпеки сьогодні

Бізнес

З усіх вкладень, що надсилаються електронною поштою щодня, 40% є шкідливими, тобто представляють потенційний високий ризик для одержувача. Крім того,...

16.09.24

1 623

0
Крипто тиждень: Ігри від LinkedIn, нова співпраця MetaMask, Google Cloud для геймінгу

Інвестиції

Крипто тиждень: Ігри від LinkedIn, нова співпраця MetaMask, Google Cloud для геймінгу

З кожним тижнем індустрія криптовалют все більше тішить нас кількістю різноманітних подій. В тому числі й ігровий простір крипто світу: постійно виход...

20.03.24

1 615

0
План Ілона Маска Tesla Dojo

Інновації

План Ілона Маска Tesla Dojo

Інновації

Протягом багатьох років Ілон Маск говорив про Dojo — суперкомп’ютер зі штучним інтелектом. Коротко: Dojo — це спеціально створений суперкомп’ютер Tesl...

05.08.24

1 613

0
Майбутнє криптоіндустрії очима Джозефа Любіна

Інвестиції

Майбутнє криптоіндустрії очима Джозефа Любіна

Під час нещодавнього заходу ETHDenver генеральний директор компанії Consensys Джозеф Любін поділився своїми думками про зміну поглядів поколінь, сприч...

10.04.24

1 612

0

 

Опитування
У якій соцмережі ви проводите найбільше часу?
Facebook
13% (39)
Instagram
6% (19)
TikTok
9% (27)
Telegram
24% (74)
Youtube
32% (96)
Twitter
2% (5)
А що це?
14% (44)
Залишити коментар

Натиснувши «Прийняти всі cookie-файли» ви погоджуєтесь на розміщення всіх cookie-файлів на вашому пристрої. Ви можете змінювати налаштування cookie-файлів або відкликати вашу згоду на їх використання у будь-який час натиснувши на «Налаштування cookie-файлів».