15 апреля 2025 года OpenAI официально представила GPT-4.1 — масштабное обновление флагманской языковой модели, ориентированное на прикладные задачи и снижение стоимости. Новая версия доступна в трех форматах: базовый GPT-4.1, а также облегченные mini и nano.
Главные улучшения: кодинг, инструкции и длинный контекст
Модель GPT-4.1 показывает значительный прирост по ключевым задачам, связанным с кодированием, точным выполнением команд и восприятием больших объемов информации.
Улучшения в программировании и работе с кодом
Модель продемонстрировала 54,6% точности на SWE-bench Verified, что означает:
прирост на 21,4% по сравнению с GPT-4o;
преимущество в 26,6% по сравнению с GPT-4.5;
снижение количества ненужных изменений в коде;
улучшенное понимание диффов и commit-форматов.
Это делает GPT-4.1 особенно ценным для разработчиков и автоматизации задач в CI/CD-пайплайнах.
Улучшения в выполнении инструкций
На бенчмарке Scale’s MultiChallenge модель достигла 38,3%, что говорит о:
росте точности на 10,5% по сравнению с GPT-4o;
более последовательном выполнении вложенных и многослойных инструкций;
повышенной способности точно интерпретировать команды без перефразирования.
Это критично для сценариев с большим числом логических условий, например: юридических запросов, продвинутых пользовательских интерфейсов или обработки форм.
Улучшения в работе с длинным контекстом
На Video-MME — бенчмарке для длинного контекста — GPT-4.1 показала результат 72,0%, что означает:
увеличение на 6,7% по сравнению с GPT-4o;
более точную работу с большими документами;
устойчивость при анализе разноформатных данных;
повышенную способность сопоставлять информацию на длинной временной или логической дистанции
Все эти улучшения формируют фундамент для работы с большими юридическими базами, историей переписок, массивами кода и архивами знаний.
Три версии GPT-4.1: баланс между мощностью, скоростью и ценой
OpenAI предлагает три модели на выбор, чтобы покрыть разные потребности — от высоконагруженных корпоративных сценариев до решений, где критичны скорость и минимальные расходы.
- Базовая модель GPT-4.1:
полноценная версия с максимальной точностью;
поддержка 1 млн токенов;
на 26% дешевле GPT-4o при стандартной нагрузке;
подходит для полноценных ассистентов, аналитических систем и интеллектуальных интерфейсов.
GPT-4.1 mini:
уменьшенная задержка почти вдвое;
снижение стоимости на 83% при схожем качестве на типичных задачах;
отлично подходит для взаимодействий в реальном времени, интерфейсов с высокой частотой запросов.
GPT-4.1 nano:
самый быстрый и доступный вариант;
80,1% точности на MMLU и 50,3% на GPQA;
используется в сценариях, в которых важна мгновенная реакция и повторяемость ответов.
Таким образом, выбор модели позволяет гибко адаптироваться под бюджет, сценарий использования и требования к latency.
Применение в реальных продуктах: цифры от компаний
OpenAI поделилась данными от разработчиков, уже использующих GPT-4.1 в продакшене. Рост показателей наблюдается сразу по нескольким направлениям:
Windsurf — увеличение производительности на задачах программирования — +60%;
Qodo — улучшенные рекомендации при code review в 55% случаев;
Blue J — прирост точности в налоговых сценариях составил 53%;
Thomson Reuters — рост точности при анализе многостраничных документов составил 17%.
Эти данные показывают, что GPT-4.1 не просто улучшен в теории, но уже применяется в юридической аналитике, финтехе и разработке ПО с заметными преимуществами.
Контекст на 1 000 000 токенов: для кого это действительно важно?
Новая способность GPT-4.1 — работа с контекстом до миллиона токенов — дает радикальные преимущества для задач, где важен доступ к полной истории запроса или анализа:
обработка и анализ юридических договоров длиной в сотни страниц;
разбор огромных репозиториев кода в одной сессии;
проведение обучающих сессий с запоминанием всех этапов;
ведение многоходовой беседы без потери логики.
Такие сценарии раньше были ограничены — теперь они стали реальностью.
Понимание изображений и мультимодальные возможности: новый уровень точности
Модель также улучшила показатели в области визуального распознавания и мультимодальности. В частности:
распознавание объектов и текста на изображениях;
интерпретация последовательностей изображений в видео;
поддержка комбинированных запросов — текст + картинка + команда.
На Video-MME GPT-4.1 показала 72,0%, что ставит ее в топ мировых моделей по визуальному восприятию.
Чем это полезно для разработчиков, аналитиков и команд автоматизации?
Запуск GPT-4.1 открывает новые возможности для компаний и команд, которые работают с большими данными, автоматизацией и клиентскими продуктами:
повышенная точность в коде, инструкциях и логике;
возможность интеграции в пайплайны без дообучения;
работа с беспрецедентно длинными контекстами;
снижение затрат без ущерба качеству;
применимость в реальных бизнес-задачах: от налогов до customer support.
Главное нововведение — поддержка контекста до 1 000 000 токенов, что эквивалентно нескольким книгам или тысячам страниц кода. Модель способна анализировать, «удерживать в памяти» и обрабатывать огромные объемы информации без потери логики или деталей.
👉🏻Следите за новостями в нашем telegram-канале — Новости Арбитража.
Нет комментариев.