OpenAI презентувала відкритий вихідний код безпечної моделі висновків gpt-oss-safeguard, яка підтримує класифікацію на основі політик

robot
Генерація анотацій у процесі

PANews 29 жовтня повідомляє, що OpenAI сьогодні випустила Відкритий вихідний код безпеки моделі mгpt-oss-safeguard (120b, 20b), що дозволяє розробникам надавати користувацькі політики для класифікації контенту під час міркувань, а також модельні результати та ланцюги міркувань. Ця модель базується на відкритих вагах gpt-oss, яка була доопрацьована та має ліцензію Apache 2.0, її можна завантажити з Hugging Face. Внутрішні оцінки показують, що вона перевершує gpt-5-thinking та gpt-oss за точністю з кількома політиками, а результати на зовнішніх наборах даних близькі до Safety Reasoner. Обмеження включають: традиційні класифікатори все ще є кращими в умовах великої кількості якісних маркованих сцен, а також час на міркування та Обчислювальна потужність є високими. ROOST створить спільноту моделей та випустить технічний звіт.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Пов'язані теми
#
ai
#
新闻前沿
#
NewsMessenger
Прокоментувати
0/400
Немає коментарів
  • Закріпити