Нова генерація штучного інтелекту від OpenAI може стати загрозою для безпеки, оскільки існує ризик її використання для розробки біологічної зброї, зазначає FT.
Цю інформацію оприлюднив Financial Times, згідно з повідомленням Укрінформу.
12 вересня OpenAI анонсувала свою нову модель, продемонструвавши її вміння в логічному мисленні, вирішенні складних математичних задач і відповіді на наукові запитання.
У системній картці компанії, яка пояснює, як працює нова модель ШІ, зазначено, що вона несе "середній рівень ризику" щодо питань, пов'язаних з хімічною, біологічною, радіологічною та ядерною зброєю - це найвищий ризик, який OpenAI коли-небудь давав своїм моделям.
Водночас технічний директор OpenAI Міра Мураті розповіла виданню, що модель o1 працює набагато краще за загальними показниками безпеки, ніж попередні версії ШІ.
Зазначається, що продукт буде доступний для платних передплатників ChatGPT і для програмістів через API.
Згідно з інформацією Укрінформу, компанія OpenAI, яка є розробником ChatGPT, представила нову версію своєї потужної моделі штучного інтелекту GPT-4o - GPT-4o mini. Ця новинка є компактнішою та більш доступною за ціною.