AI编程 · 架构思考 · 技术人生

英伟达NIM平台:免费调用GLM-4.7与MiniMax M2.1指南

智谱 GLM,支持多语言、多任务推理。从写作到代码生成,从搜索到知识问答,AI 生产力的中国解法。

NVIDIA NIM 是什么

NVIDIA NIM(NVIDIA Inference Microservices)是英伟达推出的推理服务平台,提供多家厂商的 AI 模型 API。重点是:部分模型免费调用,包括智谱 GLM-4.7 和 MiniMax M2.1。

API 兼容 OpenAI 格式,意味着你现有的代码基本不用改。

NVIDIA NIM API 调用流程

3 步上手

第 1 步:注册 NVIDIA 账号

访问 NVIDIA Developer,用邮箱注册账号。已有账号直接登录。

第 2 步:获取 API Key

  1. 进入 NIM 模型目录
  2. 选择你要用的模型(比如 GLM-4 或 MiniMax M2.1)
  3. 点击 “Get API Key”,复制 nvapi- 开头的密钥

第 3 步:调用模型

API 端点统一为:

https://integrate.api.nvidia.com/v1

Python 示例

from openai import OpenAI

client = OpenAI(
    base_url="https://integrate.api.nvidia.com/v1",
    api_key="nvapi-你的密钥"
)

# 调用 GLM-4.7
response = client.chat.completions.create(
    model="zhipu-ai/glm4.7",  # 或 thudm/glm-4
    messages=[{"role": "user", "content": "你好"}],
    max_tokens=1024
)
print(response.choices[0].message.content)

调用 MiniMax M2.1

response = client.chat.completions.create(
    model="minimaxai/minimax-m2.1",
    messages=[{"role": "user", "content": "写一首关于春天的诗"}],
    max_tokens=1024
)

可用模型

模型 Model ID 说明
GLM-4.7 zhipu-ai/glm4.7thudm/glm-4 智谱最新模型
MiniMax M2.1 minimaxai/minimax-m2.1 MiniMax 大模型

注意事项

  • API Key 格式都是 nvapi- 开头
  • 免费额度有限,适合测试和小规模使用
  • 响应速度取决于模型和网络状况
  • 更多模型可在 NIM 目录 查看

原文来源Linux.do

赞(0)
未经允许不得转载:Toy's Tech Notes » 英伟达NIM平台:免费调用GLM-4.7与MiniMax M2.1指南
免费、开放、可编程的智能路由方案,让你的服务随时随地在线。

评论 抢沙发

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始