Згідно з моніторингом 1M AI News, співзасновник OpenAI Грег Брокман у інтерв’ю згадав про стрибкоподібне покращення AI програмістських можливостей у грудні 2025 року. Він використав тестовий промпт, який зберігає багато років, щоб виміряти прогрес: попросив AI зібрати сайт, на який тоді, коли він вчився програмуванню, пішло кілька місяців. Протягом усього 2025 року це завдання потребувало кількох раундів підказок і приблизно чотирьох годин, щоб упоратися з ним; а в грудні воно виконувалося одним запитом і при цьому мати дуже добру якість. Він сказав, що нова модель підняла AI з «можливості виконати близько 20% завдань» до «близько 80%», і цей стрибок змусив усіх «перебудувати робочі процеси навколо AI».
Щодо напрямів витрачання фінансування в 11 мільярдів доларів, Брокман порівняв обчислювальні потужності з «наймом продавців»: якщо у продукту є масштабований канал збуту, то чим більше наймаєш продавців, тим більше доходу вони приносять. Обчислювальні потужності — не центр витрат, а центр доходу. Він пригадав розмову з командою напередодні релізу ChatGPT: «Вони питали: “Скільки обчислювальних потужностей нам потрібно купити?” Я відповів: “Усе”. Вони сказали: “Ні-ні-ні, серйозно, скільки саме купити?” Я відповів: “Як би ми це не будували, ми не встигнемо за попитом”». Це припущення й досі залишається справедливим, а закупівля потужностей потребує заздалегідь зафіксуватися на 18–24 місяці.
Щодо того, як використовувати ці обчислювальні потужності, Брокман повідомив, що OpenAI більше не прагне в першу чергу до максимально масштабного попереднього навчання, а розглядає попереднє навчання й витрати на міркування як спільні цілі оптимізації: «Вам не обов’язково робити якомога більше, бо вам треба врахувати, що в застосуваннях у реальному секторі буде багато сценаріїв міркувань. Насправді ви хочете оптимальне розв’язання “інтелект × витрати”». Але він чітко заперечує твердження, ніби «попереднє навчання більше не важливе»: на його думку, що розумніша базова модель, то ефективнішими будуть подальші етапи підкріпленого навчання й міркування, і для масштабованого централізованого тренування все ще «абсолютно потрібні» GPU компанії NVIDIA.