NVIDIA NIM 是什么
NVIDIA NIM(NVIDIA Inference Microservices)是英伟达推出的推理服务平台,提供多家厂商的 AI 模型 API。重点是:部分模型免费调用,包括智谱 GLM-4.7 和 MiniMax M2.1。
API 兼容 OpenAI 格式,意味着你现有的代码基本不用改。

3 步上手
第 1 步:注册 NVIDIA 账号
访问 NVIDIA Developer,用邮箱注册账号。已有账号直接登录。
第 2 步:获取 API Key
- 进入 NIM 模型目录
- 选择你要用的模型(比如 GLM-4 或 MiniMax M2.1)
- 点击 “Get API Key”,复制
nvapi-开头的密钥
第 3 步:调用模型
API 端点统一为:
https://integrate.api.nvidia.com/v1
Python 示例:
from openai import OpenAI
client = OpenAI(
base_url="https://integrate.api.nvidia.com/v1",
api_key="nvapi-你的密钥"
)
# 调用 GLM-4.7
response = client.chat.completions.create(
model="zhipu-ai/glm4.7", # 或 thudm/glm-4
messages=[{"role": "user", "content": "你好"}],
max_tokens=1024
)
print(response.choices[0].message.content)
调用 MiniMax M2.1:
response = client.chat.completions.create(
model="minimaxai/minimax-m2.1",
messages=[{"role": "user", "content": "写一首关于春天的诗"}],
max_tokens=1024
)
可用模型
| 模型 | Model ID | 说明 |
|---|---|---|
| GLM-4.7 | zhipu-ai/glm4.7 或 thudm/glm-4 |
智谱最新模型 |
| MiniMax M2.1 | minimaxai/minimax-m2.1 |
MiniMax 大模型 |
注意事项
- API Key 格式都是
nvapi-开头 - 免费额度有限,适合测试和小规模使用
- 响应速度取决于模型和网络状况
- 更多模型可在 NIM 目录 查看
原文来源:Linux.do






程序员数学扫盲课
AI周刊:大模型、智能体与产业动态追踪
Claude Code 全体系指南:AI 编程智能体实战
Karpathy神经网络零基础课程
最新评论
开源的AI对话监控面板很实用,正好团队在找这类工具。准备试用一下。
折叠屏市场确实在升温,不过售罄也可能是备货策略。期待看到实际销量数据。
从磁盘I/O角度解释B树的设计动机,这个切入点很好。终于理解为什么数据库不用二叉树了。
IT术语转换确实是个痛点,之前用搜狗总是把技术词汇转成奇怪的词。智谱这个方向值得期待。
这个工具结合LLM和搜索API的思路很有意思,正好解决了我在做知识管理时遇到的问题。请问有没有部署文档?
这个漏洞确实严重,我们团队上周刚遇到类似问题。建议补充一下如何检测现有项目是否受影响的方法。
从简单规则涌现复杂性这个思路很有意思,让我想起元胞自动机。不过数字物理学在学术界争议还挺大的。
我也遇到了指令跟随变差的问题,特别是多轮对话时容易跑偏。不知道是模型退化还是负载优化导致的。