趋近智
参数
-
上下文长度
400K
模态
Text
架构
Dense
许可证
Proprietary
发布日期
13 Nov 2025
训练数据截止日期
May 2024
注意力结构
Multi-Head Attention
隐藏维度大小
-
层数
-
注意力头
-
键值头
-
激活函数
-
归一化
-
位置嵌入
Absolute Position Embedding
GPT-5 Mini High 是 GPT-5 系列中一款精密且紧凑的变体,旨在提供高级推理和指令遵循能力,同时保持极高的资源利用率。该模型采用稠密 Transformer 架构,并作为多模型路由系统的一部分,根据查询的复杂程度动态分配计算资源。它定位为中间层解决方案,填补了高吞吐量“Nano”模型与深度思考的“Pro”旗舰版本之间的空白,非常适合需要兼顾智能与成本效率的生产环境。
在技术层面,该模型结合了先进的多头注意力(MHA)机制,并支持显著扩展至 400,000 个 token 的上下文窗口。这种架构规模使其能够以极高的保真度处理大量的技术文档、复杂的代码库和长篇对话历史。此外,该模型具备原生多模态能力,支持通过统一的模态特定编码器输入文本和图像数据,并将其馈入通用的 Transformer 骨干网络,从而实现复杂的跨模态推理任务。
在实际应用中,GPT-5 Mini High 针对智能体工作流管理、复杂 Web 开发和多步数学问题求解等任务进行了优化。其设计理念强调可靠的工具调用和结构化输出生成(如有效的 JSON),这有助于将其集成到自动化开发流水线中。通过 API 提供的“高”详细度和推理力度选项,开发者可以针对特定的企业级用例,在输出质量和响应延迟之间进行精细平衡。
OpenAI 最新一代语言模型,具备先进的推理能力,支持高达 400K token 的超长上下文窗口,并针对编程、通用智能及效率推出了专门的变体。GPT-5 系列引入了改进的思考模式,在各项基准测试中表现卓越,并提供从高容量 Pro 模型到高效 Nano 模型等多种针对不同用例优化的版本。该系列具备原生多模态理解能力、增强的数学推理能力,并通 Codex 变体实现了业界领先的编程能力。
排名
#39
| 基准 | 分数 | 排名 |
|---|---|---|
0.82 | 17 | |
Web 开发 WebDev Arena | 1390 | 22 |
0.47 | 23 | |
0.55 | 24 | |
0.68 | 26 | |
0.68 | 37 |