模型介绍

2026-03-17   访问量:0



腾讯云智能体开发平台支持以下模型,您可根据您的需求进行选择。

标准模式

标准模式应用运行时,主要需使用以下模型:

1. 思考模型:用于意图识别,主要影响意图识别的效果。

2. 生成模型:主要影响阅读理解与答案生成的效果。

3. 多模态问答模型:用于对应用对话中用户上传的图片进行理解,ADP 官方推荐使用 hunyuan-turbos-vision 模型进行多模态问答。

4. 多模态阅读理解模型:对于知识库检索召回的多问多图片段进行解析,ADP 官方推荐使用 youtu-mllm 模型进行多模态阅读理解。

5. Prompt 改写模型:用于解决多轮对话中的“上下文割裂”问题,将模糊、省略或依赖前文的用户输入,转化为大模型可精准理解的完整语义指令。ADP 官方推荐使用 youtu-rewrite 进行 Prompt 改写。

6. AI一键优化模型:用于对提示词、角色指令、工作流描述、工作流各节点提示词进行一键优化,同时也会用于工作流代码节点AI代码生成。ADP 官方推荐 youtu-mrc-standard 进行 AI 一键优化。

生成模型

腾讯云智能体开发平台目前已接入精调知识大模型、混元大模型、DeepSeek 等十余种模型,各模型详情及适用场景如下:

模型名称

输入输出

场景描述

youtu-mrc-pro

(原精调知识大模型高级版)

最大输入7k

最大输出1~4k

1. 适用场景:针对企业知识问答场景精调训练,擅长多模态知识问答,适合图文表答案关联输出、数学计算、逻辑推理、表格问答等复杂场景。

2. 优势能力:支持图文关联输出、数据计算、表格问答、标签提取。

youtu-mrc-standard(原精调知识大模型标准版)

最大输入7k

最大输出1~4k

1. 适用场景:针对企业知识问答场景精调训练,擅长多模态知识问答。性价比相对更高,适合需要同时平衡效果、价格的场景。

2. 优势能力:支持图文关联输出。

hunyuan-pro

(原混元大模型高级版)

最大输入28k

最大输出4k

1. 万亿级参数规模 MOE-32k 长文模型。

2. 在各种 benchmark 上达到绝对领先的水平,复杂指令和推理能力,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。

hunyuan-standard

(原混元大模型标准版)

最大输入30k

最大输出2k

1. 采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。

2. MOE-32k 性价比相对更高,在平衡效果、价格的同时,可实现对长文本输入的处理。

hunyuan-turbo

(原混元大模型Turbo 版)

最大输入28k

最大输出4k

混元 turbo 模型默认版本,采用全新的混合专家模型(MoE)结构,相比混元大模型高级版推理效率更快,效果表现更强。

hunyuan-standard-256k

(原混元大模型长文本版)

最大输入250k

最大输出6k

1. 采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。

2. MOE-256k 在长度和效果上进一步突破,极大地扩展了可输入长度。

hunyuan-role

(原混元大模型角色扮演版)

最大输入28k

最大输出4k

混元最新版角色扮演模型, 基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。

hunyuan-T1-latest

最大输入32k

最大输出64k

混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。

hunyuan-turbos-latest

最大输入32k

最大输出16k

业内首个超大规模Hybrid-Transformer-Mamba 推理模型,扩展推理能力,超强解码速度,进一步对齐人类偏好。

Tencent HY 2.0 Think

最大输入128k

最大输出64k

模型底座从 TurboS 升级为混元2.0,模型能力全面提升。显著增强模型的复杂指令遵循、多轮及长文理解、代码、Agent、推理能力。

Tencent HY 2.0 Instruct

最大输入128k

最大输出16k

模型底座从 TurboS 升级为混元2.0,模型能力全面提升。显著增强模型的指令遵循、多轮及长文理解、文学创作、知识准确性、代码及推理能力。

DeepSeek-R1-0528

128k

DeepSeek-R1模型最新版,在理解意图、文案生成、编程能力和逻辑推理方面均有显著提升。能更好地理解复杂指令中的约束条件和内在逻辑。支持长时思考,可以胜任更复杂、耗时的任务。

DeepSeek-V3-0324

128k

基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。

DeepSeek-V3.1

128k

采用混合推理架构,具备更高的思考效率,能在更短时间给出答案,在需要多步推理的复杂搜索测试与多学科专家级难题测试上,性能已大幅提升。

DeepSeek-V3.2

128k

最大输入96k

最大输出8k,默认4k

(非思考模式)

64k,默认32k

(思考模式)

DeepSeek-V3.2 为685B 参数 MoE 模型,其引入的稀疏注意力架构使长文本处理更高效,并在推理评测中达到 GPT-5水平。

该模型目前处于试运营阶段,仅支持少量接入,如需申请开通请联系您的商务经理。

思考模型

标准模式思考模型包含:

模型名称

输入输出

场景描述

youtu-intent

(原意图识别模型高级版)

最大输入8k

最大输出4k

适用于同时配置问答、文档、工作流的场景,意图识别效果更佳,并且支持在角色指令中自定义配置意图,但可能会增加一定的对话耗时。

DeepSeek-V3-0324

128k

基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。

DeepSeek-V3.1

128k

采用混合推理架构,具备更高的思考效率,能在更短时间给出答案,在需要多步推理的复杂搜索测试与多学科专家级难题测试上,性能已大幅提升。

DeepSeek-V3.2

128k

最大输入96k

最大输出8k,默认4k

(非思考模式)

64k,默认32k

(思考模式)

DeepSeek-V3.2 为685B 参数 MoE 模型,其引入的稀疏注意力架构使长文本处理更高效,并在推理评测中达到 GPT-5水平。

该模型目前处于试运营阶段,仅支持少量接入,如需申请开通请联系您的商务经理。

Multi-Agent 模式

在 Multi-Agent 模式下,可以选择每个 Agent 的模型,模型主要影响 Agent 的任务规划和工具调用。

Agent 模型包含:

模型名称

输入输出

场景描述

youtu-agent

(原精调 Function-Call 模型)



32k

模型具备任务规划、工具选择调用以及反思纠错能力,适用于复杂问题的规划与执行。

DeepSeek-R1-0528

128k

DeepSeek-R1模型最新版,在理解意图、文案生成、编程能力和逻辑推理方面均有显著提升。能更好地理解复杂指令中的约束条件和内在逻辑。支持长时思考,可以胜任更复杂、耗时的任务。

DeepSeek-V3-0324

128k

基于创新的混合专家(MoE)架构与多头潜在注意力(MLA)技术,在推理能力、代码生成和中文语义理解三大核心领域实现全面升级。

DeepSeek-V3.1

128k

采用混合推理架构,具备更高的思考效率,能在更短时间给出答案,在需要多步推理的复杂搜索测试与多学科专家级难题测试上,性能已大幅提升。

DeepSeek-V3.2

128k

最大输入96k

最大输出8k,默认4k

(非思考模式)

64k,默认32k

(思考模式)

DeepSeek-V3.2 为685B 参数 MoE 模型,其引入的稀疏注意力架构使长文本处理更高效,并在推理评测中达到 GPT-5水平。

该模型目前处于试运营阶段,仅支持少量接入,如需申请开通请联系您的商务经理。

hunyuan-T1-latest

最大输入32k

最大输出64k

混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。

hunyuan-turbos-latest

最大输入32k

最大输出16k

业内首个超大规模Hybrid-Transformer-Mamba 推理模型,扩展推理能力,超强解码速度,进一步对齐人类偏好。

Tencent HY 2.0 Think

最大输入128k

最大输出64k

模型底座从 TurboS 升级为混元2.0,模型能力全面提升。显著增强模型的复杂指令遵循能力、多轮及长文理解、代码、Agent、推理能力。

Tencent HY 2.0 Instruct

最大输入128k

最大输出16k

模型底座从 TurboS 升级为混元2.0,模型能力全面提升。显著增强模型的指令遵循能力、多轮及长文理解、文学创作、知识准确性、代码及推理能力。




热门文章
更多>