
OpenAI інтегрувала захист від біозброї в нові моделі ШІ
На нових моделях OpenAI не можна створити біологічну та хімічну зброю
o3 і o4-mini демонструють прорив у просунутому міркуванні, роботі з текстами й образами. Відтепер вони можуть не лише генерувати текст і зображення, а й переглядати вебсторінки. Це розширює функціонал ChatGPT.
Про таке повідомили Wccftech.
Модель o3 позиціонується як флагманська розробка компанії, а o4-mini — як її компактна, але високо продуктивна версія. Доступ до моделей вже відкрито для користувачів ChatGPT Plus, Pro і Team. Найближчими тижнями OpenAI планує випустити вдосконалену версію o3-pro.
Ключова інновація полягає в тому, що системи моніторингу запитів тепер здатні виявляти і блокувати спроби використання ШІ для розробки біологічної чи хімічної зброї. За словами OpenAI, новий «монітор міркувань, орієнтований на безпеку», успішно блокує 98,7% небезпечних запитів у внутрішніх тестах. Для налаштування захисту команда витратила понад 1000 годин на моделювання ризикованих сценаріїв.
Нові стандарти безпеки вже показали вищу ефективність порівняно з попередніми версіями моделей, включно з GPT-4. OpenAI також планує застосувати подібні механізми до боротьби з іншими ризиками, зокрема запобігання дитячій експлуатації.
Разом із прогресом виникли й питання прозорості. Партнер OpenAI компанія Metr повідомила про обмежені можливості тестування моделей, а звіт про безпеку GPT-4.1 компанія вирішила не оприлюднювати.
На тлі зростаючої конкуренції, особливо з боку китайських компаній на кшталт DeepSeek, OpenAI робить ставку на технологічну перевагу. Водночас компанія фокусується на відповідальному використанні ШІ як основі для довгострокового лідерства на глобальному ринку.
Нагадаємо, що GPT-4.5 пройшов тест Тюрінга.