Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
С момента выпуска o1 главной критикой является то, что модель "слишком многословна".
Я просто хотел исправить простую ошибку, а она выдала мне три раздела с контекстом, два набора решений плюс обработку ошибок, и ещё напожелала мне удачи в конце.
Я искал опечатку на строке 12, а вместо этого был вынужден пересмотреть правила именования в Python.
Виноват в этом RLHF. Аннотаторы имеют тенденцию ставить высокие оценки длинным ответам, считая, что больше текста выглядит профессиональнее.
В результате модель отчаянно стремится накапливать "на вид полезный" балласт, а действительно важная информация разбавляется.
Посмотрите на конкурента — Claude гораздо более разумен в этом отношении, он понимает, какую длину должен иметь ответ на конкретный вопрос.
Больнее всего по кошельку: тариф o1 на выходе составляет $60 за 1M токенов, и вот то, что можно объяснить за 100 токенов, они раздувают до 500, увеличивая стоимость в пять раз.
Теперь нужно специально добавлять в запрос "только код", и даже это часто не помогает.
Текущее состояние модели таково: экстремально высокий интеллект, но эмоциональный интеллект отключен, она попросту не понимает, когда пора замолчать.