此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了Chatbot Arena,并登榜前十。此外,我们在MT-Bench的评测上也观察到该模型的表现显著优于Qwen1.5-110B-Chat。
Models | MT-Bench | Arena |
---|---|---|
Qwen1.5-110B-Chat | 8.88 | 1172 |
Qwen-Max-0428 | 8.96 | 1186 |
我们也在Hugging Face上提供了Demo服务(链接):
同时我们也提供了DashScope API服务(链接)。目前API服务已经支持OpenAI API格式,示例如下所示:
from openai import OpenAI
client = OpenAI(
api_key="$your-dashscope-api-key",
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"
)
completion = client.chat.completions.create(
model="qwen-max",
messages=[{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': 'Tell me something about large language models.'}]
)
print(completion.choices[0].message)
此外,Qwen-Max-0428已上线通义千问网页端及APP。欢迎体验!
引用
@misc{qwen1.5,
title = {Introducing Qwen1.5},
url = {https://qwenlm.github.io/blog/qwen1.5/},
author = {Qwen Team},
month = {February},
year = {2024}
}