Files
SiMengWebSite_Notes/docs/blog/collect/free_model_pai.md
祀梦 bca2e0619c docs: 修正文档中的日期格式
将createTime的日期格式从"2025年11月11日 13:54:02"统一修改为"2025/11/11 13:54:02"
2025-11-11 21:44:20 +08:00

250 lines
8.5 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
title: 便宜免费的大模型 API 整合 2025年11月11日
createTime: 2025/11/11 13:54:02
permalink: /article/free_model_api/
---
## 免费的大模型 API 整合
嗨~如果你在找既温柔又省荷包的小模型,就把它们悄悄收进这里吧!它们也许不是夜空最亮的那颗星,却能在摘要、划重点、轻声问答的小角落里,给你软软又稳稳的陪伴哦~
### 百度千帆大模型平台
先从千帆开始吧~下面是常用模型的参考价格:
| 模型名称 | 版本名称 | 服务内容 | 子项 | 在线推理 | 批量推理 | 单位 |
|---|---|---|---|---|---|---|
| ERNIE Speed | ernie-speed-128k | 推理服务 | 输入 | 0 | 0.00012 | 元/千tokens |
| ERNIE Speed | ernie-speed-128k | 推理服务 | 输出 | 0 | 0.00024 | 元/千tokens |
| ERNIE Lite | ernie-lite-8k | 推理服务 | 输入 | 0 | 0.0012 | 元/千tokens |
| ERNIE Lite | ernie-lite-8k | 推理服务 | 输出 | 0 | 0.0024 | 元/千tokens |
| ERNIE Tiny | ernie-tiny-8k | 推理服务 | 输入 | 0 | 0.00008 | 元/千tokens |
| ERNIE Tiny | ernie-tiny-8k | 推理服务 | 输出 | 0 | 0.00016 | 元/千tokens |
> 提示:单纯调用 API 接口属于在线推理,当前显示为 0 元;批量推理按量计费。
#### 快速上手
1. 访问控制台并获取 API Key。
2. 使用下方示例进行快速测试。
3. 若遇错误,请检查模型名称与凭证有效期。
控制台:[https://console.bce.baidu.com/qianfan/ais/console/apiKey](https://console.bce.baidu.com/qianfan/ais/console/apiKey)
```python
import requests
import json
def main():
url = "https://qianfan.baidubce.com/v2/chat/completions"
API_KEY = 'YOUR_API_KEY'
payload = json.dumps({
"model": "ernie-speed-128k",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你好"
}
]
})
headers = {
'Content-Type': 'application/json',
'Authorization': F'Bearer {API_KEY}'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
if __name__ == '__main__':
main()
```
> 小贴士:将 `YOUR_API_KEY` 替换为你的密钥,建议使用环境变量管理凭证;请勿在公共仓库提交 Key。
更多文档:[https://cloud.baidu.com/doc/qianfan-api/s/3m9b5lqft](https://cloud.baidu.com/doc/qianfan-api/s/3m9b5lqft)
### 讯飞星火大模型
接着,我们轻盈地来到星火~
- 官网:[https://xinghuo.xfyun.cn/sparkapi](https://xinghuo.xfyun.cn/sparkapi)
- 控制台:[https://console.xfyun.cn/services/cbm?from=desk](https://console.xfyun.cn/services/cbm?from=desk)
- 模型说明:可见 Spark LiteToken 余量为无限。
#### 快速上手
> 小贴士:如需联网检索,启用 `web_search`;流式输出可以提升交互体验。
1. 在控制台获取授权凭证并替换到示例中。
2. 选择 `Lite` 模型,按需开启 `web_search``stream`
3. 若需要长内容输出,注意 8K tokens 限制,合理裁剪上下文。
```python
# encoding:UTF-8
import json
import requests
# 请替换XXXXXXXXXX为您的 APIpassword, 获取地址https://console.xfyun.cn/services/bmx1
api_key = "Bearer XXXXXXXXXX"
url = "https://spark-api-open.xf-yun.com/v1/chat/completions"
# 请求模型,并将结果输出
def get_answer(message):
#初始化请求体
headers = {
'Authorization':api_key,
'content-type': "application/json"
}
body = {
"model": "Lite",
"user": "user_id",
"messages": message,
# 下面是可选参数
"stream": True,
"tools": [
{
"type": "web_search",
"web_search": {
"enable": True,
"search_mode":"deep"
}
}
]
}
full_response = "" # 存储返回结果
isFirstContent = True # 首帧标识
response = requests.post(url=url,json= body,headers= headers,stream= True)
# print(response)
for chunks in response.iter_lines():
# 打印返回的每帧内容
# print(chunks)
if (chunks and '[DONE]' not in str(chunks)):
data_org = chunks[6:]
# print(f"DEBUG: raw data_org: {data_org}")
chunk = json.loads(data_org)
text = chunk['choices'][0]['delta']
# 判断最终结果状态并输出
if ('content' in text and '' != text['content']):
content = text["content"]
if (True == isFirstContent):
isFirstContent = False
print(content, end="")
full_response += content
return full_response
# 管理对话历史,按序编为列表
def getText(text,role, content):
jsoncon = {}
jsoncon["role"] = role
jsoncon["content"] = content
text.append(jsoncon)
return text
# 获取对话中的所有角色的content长度
def getlength(text):
length = 0
for content in text:
temp = content["content"]
leng = len(temp)
length += leng
return length
# 判断长度是否超长当前限制8K tokens
def checklen(text):
while (getlength(text) > 11000):
del text[0]
return text
#主程序入口
if __name__ =='__main__':
#对话历史存储列表
chatHistory = []
#循环对话轮次
while (1):
# 等待控制台输入
Input = input("\n" + "我:")
question = checklen(getText(chatHistory,"user", Input))
# 开始输出模型内容
print("星火:", end="")
getText(chatHistory,"assistant", get_answer(question))
```
### 腾讯混元大模型
- 计费与价格:[https://cloud.tencent.com/document/product/1729/97731](https://cloud.tencent.com/document/product/1729/97731)
- 文档与控制台:[https://cloud.tencent.com/document/product/1729/111008](https://cloud.tencent.com/document/product/1729/111008)
- 模型说明:`hunyuan-lite` 免费可用,适合轻量任务。
```python
import os
from openai import OpenAI
# 构造 client建议使用环境变量管理密钥
api_key = os.getenv("HUNYUAN_API_KEY", "YOUR_API_KEY")
client = OpenAI(
api_key=api_key, # 混元 APIKey
base_url="https://api.hunyuan.cloud.tencent.com/v1", # 混元 endpoint
)
completion = client.chat.completions.create(
model="hunyuan-lite",
messages=[
{
"role": "user",
"content": "泥嚎"
}
],
extra_body={
"enable_enhancement": True,
},
)
print(completion.choices[0].message.content)
```
> 小贴士:请勿在公共仓库提交任何真实密钥;使用环境变量或密钥管理服务更安全。
## 低价大模型
### SCNet 平台
#### 简介
SCNet 是一个面向人工智能和科学计算的一站式算力与 AI 平台,提供从数据管理、模型训练到部署的完整链路服务,同时结合国产超算硬件和多模态模型生态,让企业和开发者能更高效地使用 AI。
#### 链接与文档
- 官网:[https://www.scnet.cn/](https://www.scnet.cn/)
#### 价格一览
| 模型 | 上下文长度 | 百万 tokens 输入价格 | 百万 tokens 输出价格 |
|---|---|---|---|
| Qwen3-235B-A22B | 32K | 0.1 元 | 0.1 元 |
| DeepSeek-R1-Distill-Qwen-7B | 32K | 0.1 元 | 0.1 元 |
| DeepSeek-R1-Distill-Qwen-32B | 32K | 1 元 | 4 元 |
| DeepSeek-R1-Distill-Llama-70B | 32K | 0.1 元 | 6 元 |
| QwQ-32B | 32K | 1 元 | 4 元 |
| Qwen3-30B-A3B | 128K | 1 元 | 6 元 |
| Qwen3-Embedding-8B | - | 0.1 元 | - |
- 文档(计费与说明):[https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/tutorial/modulefee.html](https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/tutorial/modulefee.html)
目前看到的价格最低的 Qwen3-235B-A22B 模型的 API相比前面的免费模型性能更强。
- API 接口使用样例:[https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/tutorial/apicall.html](https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/tutorial/apicall.html)
## 小结
把上面这些“零钱包”级别的模型都翻完啦~
- 百度千帆、讯飞星火、腾讯混元都给出「免费在线额度」,日常轻量问答、摘要、润色完全够用;记得把 Key 藏进环境变量,别手滑推到 GitHub。
- 如果任务量突然暴涨SCNet 的 Qwen3-235B-A22B 只要 0.1 元/百万 tokens性价比直接拉满当“备胎”也安心。
一句话:先薅免费的,薅不动再掏 0.1 元,让荷包和模型一起“稳稳幸福”吧!