OpenAI запускает GPT-4.1: новая эпоха производительности и контекста в AI

142

15 апреля 2025 года OpenAI официально представила GPT-4.1 — масштабное обновление флагманской языковой модели, ориентированное на прикладные задачи и снижение стоимости. Новая версия доступна в трех форматах: базовый GPT-4.1, а также облегченные mini и nano.

Главные улучшения: кодинг, инструкции и длинный контекст

Модель GPT-4.1 показывает значительный прирост по ключевым задачам, связанным с кодированием, точным выполнением команд и восприятием больших объемов информации.

Улучшения в программировании и работе с кодом

Модель продемонстрировала 54,6% точности на SWE-bench Verified, что означает:

  • прирост на 21,4% по сравнению с GPT-4o;

  • преимущество в 26,6% по сравнению с GPT-4.5;

  • снижение количества ненужных изменений в коде;

  • улучшенное понимание диффов и commit-форматов.

Это делает GPT-4.1 особенно ценным для разработчиков и автоматизации задач в CI/CD-пайплайнах.

Улучшения в выполнении инструкций

На бенчмарке Scale’s MultiChallenge модель достигла 38,3%, что говорит о:

  • росте точности на 10,5% по сравнению с GPT-4o;

  • более последовательном выполнении вложенных и многослойных инструкций;

  • повышенной способности точно интерпретировать команды без перефразирования.

Это критично для сценариев с большим числом логических условий, например: юридических запросов, продвинутых пользовательских интерфейсов или обработки форм.

Улучшения в работе с длинным контекстом

На Video-MME — бенчмарке для длинного контекста — GPT-4.1 показала результат 72,0%, что означает:

  • увеличение на 6,7% по сравнению с GPT-4o;

  • более точную работу с большими документами;

  • устойчивость при анализе разноформатных данных;

  • повышенную способность сопоставлять информацию на длинной временной или логической дистанции

Все эти улучшения формируют фундамент для работы с большими юридическими базами, историей переписок, массивами кода и архивами знаний.

Три версии GPT-4.1: баланс между мощностью, скоростью и ценой

OpenAI предлагает три модели на выбор, чтобы покрыть разные потребности — от высоконагруженных корпоративных сценариев до решений, где критичны скорость и минимальные расходы.

  • Базовая модель GPT-4.1:
    • полноценная версия с максимальной точностью;

    • поддержка 1 млн токенов;

    • на 26% дешевле GPT-4o при стандартной нагрузке;

    • подходит для полноценных ассистентов, аналитических систем и интеллектуальных интерфейсов.

  • GPT-4.1 mini:

    • уменьшенная задержка почти вдвое;

    • снижение стоимости на 83% при схожем качестве на типичных задачах;

    • отлично подходит для взаимодействий в реальном времени, интерфейсов с высокой частотой запросов.

  • GPT-4.1 nano:

    • самый быстрый и доступный вариант;

    • 80,1% точности на MMLU и 50,3% на GPQA;

    • используется в сценариях, в которых важна мгновенная реакция и повторяемость ответов.

Таким образом, выбор модели позволяет гибко адаптироваться под бюджет, сценарий использования и требования к latency.

Применение в реальных продуктах: цифры от компаний

OpenAI поделилась данными от разработчиков, уже использующих GPT-4.1 в продакшене. Рост показателей наблюдается сразу по нескольким направлениям:

  • Windsurf — увеличение производительности на задачах программирования — +60%;

  • Qodo — улучшенные рекомендации при code review в 55% случаев;

  • Blue J — прирост точности в налоговых сценариях составил 53%;

  • Thomson Reuters — рост точности при анализе многостраничных документов составил 17%.

Эти данные показывают, что GPT-4.1 не просто улучшен в теории, но уже применяется в юридической аналитике, финтехе и разработке ПО с заметными преимуществами.

Контекст на 1 000 000 токенов: для кого это действительно важно?

Новая способность GPT-4.1 — работа с контекстом до миллиона токенов — дает радикальные преимущества для задач, где важен доступ к полной истории запроса или анализа:

  • обработка и анализ юридических договоров длиной в сотни страниц;

  • разбор огромных репозиториев кода в одной сессии;

  • проведение обучающих сессий с запоминанием всех этапов;

  • ведение многоходовой беседы без потери логики.

Такие сценарии раньше были ограничены — теперь они стали реальностью.

Понимание изображений и мультимодальные возможности: новый уровень точности

Модель также улучшила показатели в области визуального распознавания и мультимодальности. В частности:

  • распознавание объектов и текста на изображениях;

  • интерпретация последовательностей изображений в видео;

  • поддержка комбинированных запросов — текст + картинка + команда.

На Video-MME GPT-4.1 показала 72,0%, что ставит ее в топ мировых моделей по визуальному восприятию.

Чем это полезно для разработчиков, аналитиков и команд автоматизации?

Запуск GPT-4.1 открывает новые возможности для компаний и команд, которые работают с большими данными, автоматизацией и клиентскими продуктами:

  • повышенная точность в коде, инструкциях и логике;

  • возможность интеграции в пайплайны без дообучения;

  • работа с беспрецедентно длинными контекстами;

  • снижение затрат без ущерба качеству;

  • применимость в реальных бизнес-задачах: от налогов до customer support.

Главное нововведение — поддержка контекста до 1 000 000 токенов, что эквивалентно нескольким книгам или тысячам страниц кода. Модель способна анализировать, «удерживать в памяти» и обрабатывать огромные объемы информации без потери логики или деталей.

👉🏻Следите за новостями в нашем telegram-канале — Новости Арбитража.

Нет комментариев.

Похожие новости

⇧ Наверх