国际云宝子
首页
云服务器
亚太(中国/日本/韩国)
北美(美国/加拿大)
欧洲(英国/德国/法国)
中东(阿联酋/巴林)
申请账号
阿里云国际
腾讯云国际
AWS亚马逊
自助充值
阿里云国际
腾讯云国际
AWS亚马逊
招商合作
帮助中心
藏经阁
云服务器
亚太(中国/日本/韩国)
北美(美国/加拿大)
欧洲(英国/德国/法国)
中东(阿联酋/巴林)
申请账号
阿里云国际
腾讯云国际
AWS亚马逊
自助充值
阿里云国际
腾讯云国际
AWS亚马逊
账号列表
阿里云国际
腾讯云国际
AWS亚马逊
招商合作
帮助中心
藏经阁
登录
注册
用户名
会员中心
重置密码
退出登录
登录
重置密码
退出登录
全部类型
当前位置:
首页
>
帮助中心
>
阿里云国际
全部类型
阿里云国际
腾讯云国际
亚马逊云
教程中心
安全中心
全部类型
阿里云国际
腾讯云国际
亚马逊云
教程中心
安全中心
搜索
批量推理(Batch)
对于无需实时响应的业务场景,批量推理服务可以通过离线方式进行大规模数据处理。批量推理的计费仅为实时推理的50%,帮助您有效节省资源消耗成本。支持的模型文生文模型:qwq-plus、qwen-max、qwen-plus、qwen-turbo、qwen-long、qwq-32b-preview视觉理解模型:qwen-vl-max、qwen-vl-plus全模态模型:qwen-omni-turbo通用文
2025-03-17
浏览:1000+
指定前缀续写(Partial Mode)
在解答数学考试的应用题时,我们需要以“解:”开头,否则可能会扣除格式分。类似地,在某些场景中,您可能需要大模型基于特定前缀来续写内容。为了实现这一功能,您可以在使用通义千问 API 时开启 Partial Mode,这将使大模型能够从您提供的起始文本继续生成内容。支持的模型qwen-max 系列qwen-max、qwen-max-0125、qwen-m
2025-03-17
浏览:1000+
Json Mode
在信息抽取场景,您可以通过提示词来指引大模型生成标准格式的 JSON 字符串。但大模型输出内容具有不确定性,返回的内容可能不符合 JSON 格式(比如输出的内容多了```json```,或“以下为JSON字符串”等内容),这会影响到后续的解析步骤。开启结构化输出功能可以确保大模型输出标准格式的 JSON 字符串。支持的模型结构化输
2025-03-17
浏览:1000+
Function Calling
大模型在面对实时性问题、数学计算等问题时可能效果不佳。您可以使用 Function Calling 功能,通过引入外部工具,使得大模型可以与外部世界进行交互。支持的模型当前支持通义千问的大语言模型。支持的模型为:通义千问-Max通义千问-Plus通义千问-Turbo通义千问-LongQwen2.5Qwen2Qwen1.5Qwen暂不支持通义千问多模态模型。建议
2025-03-13
浏览:1000+
流式输出
大模型收到输入后并不是一次性生成最终结果,而是逐步地生成中间结果,最终结果由中间结果拼接而成。用流式输出的方式调用大模型 API,能够实时返回中间结果,减少用户的阅读等待时间,并降低请求的超时风险。概述相比非流式输出,流式输出可以实时地将中间结果返回,您可以在模型进行输出的同时进行阅读,减少等待模型回复
2025-03-13
浏览:1000+
多轮对话
通义千问 API 默认不会记录您的历史对话信息。多轮对话功能可以让大模型“拥有记忆”,满足如追问、信息采集等需要连续交流的场景。效果对比你好,我叫peter你好,Peter!很高兴认识你。有什么我可以帮忙的吗?已关闭多轮对话发送以上组件仅供您参考,并未真实发送请求。如何使用通义千问 API 不会记录您的对话记录。如果您
2025-03-13
浏览:1000+
通义千问代码模型能力
通义千问代码模型具有强大的代码能力,您可以通过API接口调用,将通义千问代码模型集成到您的业务中。模型概览如果您对代码相关的任务或在复杂场景下的任务效果有要求,建议选择qwen-coder-plus或qwen2.5-coder-32b-instruct,这些模型在代码生成、代码修复、代码推理能力上具备业界领先水平。如果您对模型推理速度有要求,
2025-03-13
浏览:1000+
数学能力
通义千问数学模型是专门用于数学解题的语言模型,致力于解决复杂、具有挑战性的数学问题。模型概览商业版模型名称版本上下文长度最大输入最大输出输入成本输出成本免费额度(注)(Token数)(每千Token)qwen-math-plus当前等同qwen-math-plus-2024-09-19稳定版4,0963,0723,0720.004元0.012元各100万Token有效期:百炼开通
2025-03-13
浏览:1000+
Qwen-MT模型
Qwen-MT模型是基于通义千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等24种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。支持的模型如果您对翻译质量有较高要
2025-03-05
浏览:1000+
长上下文
您与大模型的对话(输入和输出)会受到模型上下文长度的限制。对于通常的长上下文场景,通义千问Plus(最大约13万Token)或通义千问Turbo(最大100万Token)可以满足需求;而对于超过100万Token的超长上下文场景,建议使用Qwen-Long模型。Qwen-Long提供长达1,000万Token(约1,500万字)的上下文长度,支持上传文档并基于文档
2025-03-05
浏览:1000+
首页
上一页
1
2
3
4
5
···
下一页
尾页
在线客服
售前咨询
@yunbaozi
售后咨询
@gjyunh
回到顶部
首页
申请账号
自助充值
我的
售前
售后