返回首页
DashScope, LangChain

DashScope 模型服务灵积

DashScope 模型服务灵积

让大模型能力触达每位开发者

灵积模型服务建立在“模型即服务”(Model-as-a-Service,MaaS)的理念基础之上。

灵积通过灵活、易用的模型API服务,让各种模态模型的能力,都能方便的为AI开发者所用。通过灵积API,开发者不仅可以直接集成大模型的强大能力,也可以对模型进行训练微调,实现模型定制化。

通义千问大型语言模型

模型描述上下文长度计量单价
qwen-turbo通义千问超大型语言模型,支持中文、英文等不同语言输入。8k0.008元/1000 tokens
qwen-plus通义千问超大型语言模型增强版,支持中文、英文等不同语言输入。32k0.02元/1000 tokens
qwen-max通义千问千亿级别超大型语言模型,支持中文、英文等不同语言输入。8k0.12元/1000 tokens
qwen-max-longcontext通义千问千亿级别超大型语言模型,支持中文、英文等不同语言输入。30k0.12元/1000 tokens
qwen-72b-chat通义千问开源 720 亿参数大型语言模型8k0.02元/1000 tokens
qwen1.5-72b-chat通义千问开源 720 亿参数大型语言模型32k

LangChain 调用

from langchain_community.chat_models.tongyi import ChatTongyi

# temperature 没有设置成功,使用 top_p=0.01,每次输出的结果都一样,比较稳定。
llm = ChatTongyi(model="qwen1.5-72b-chat", top_p=0.01)
response = llm.invoke("天空为什么是蓝色?")
print(response)
🤖

智能问答助手

Ollama + AI 问答

⏳ 初始化...

💡 配置和聊天记录仅保存在本地浏览器中