MetaChat API
  1. GLM
MetaChat API
  • 概述
  • OpenAI
    • 接入说明
    • 配置方法
    • 模型价格
    • 聊天(Chat)
      • Chat Completions 对象
      • Chat Completions 对象块
      • 创建 Chat Completions
    • 图像(Images)
      • 图像对象
      • 图像生成
      • 图片编辑
  • Claude
    • 接入说明
    • 配置方法
    • 模型价格
    • 聊天(Messages)
      • 消息
  • Gemini
    • 接入说明
    • 配置方法
    • 模型价格
    • 文本生成
      • 图片/视频/文档多模态输入
      • 文字输入
      • 图片输入
      • 流式输出
      • 多轮对话
      • 多轮对话(流式)
      • 配置参数
    • 图像生成
      • 使用 Gemini API 生成图像
      • 使用 Gemini API 编辑图像
      • 使用 Imagen API 生成图像
  • DeepSeek
    • 接入说明
    • 配置方法
    • 模型价格
    • 普通聊天
      • 多轮对话
      • 对话补全
    • 推理聊天
      • 推理模型
  • Grok
    • 接入说明
    • 配置方法
    • 模型价格
  • GLM
    • 接入说明
    • 配置方法
    • 模型价格
  • MiniMax
    • 接入说明
    • 配置方法
    • 模型价格
  • Kimi
    • 接入说明
    • 配置方法
    • 模型价格
  • Midjourney
    • 接入说明
    • 模型价格
    • 图像生成
      • 图像生成
    • 图像变换
      • 图像拆分
      • 图像微调(四宫格)
      • 图像重绘
      • 图像高清
      • 图像微调(单图)
      • 图像变焦
      • 图像平移
    • 图像处理
      • 图像描述
      • 图像融合
    • 视频生成
      • 视频生成
    • 任务查询
      • 查询图像生成结果
      • 查询视频生成结果
  • FLUX
    • 接入说明
    • 模型价格
    • 图像生成
      • 图像生成
    • 任务查询
      • 查询结果
  • Z-Image
    • 接入说明
    • 模型价格
    • 图像生成
      • 图像生成
    • 任务查询
      • 查询结果
  • Seedream
    • 接入说明
    • 模型价格
    • 图像生成
      • 图像生成
    • 任务查询
      • 查询结果
  • Account
    • 查询 API 元点余额
    • 查询 API 元点使用记录
  1. GLM

接入说明

模型版本#


MetaChat GLM API 支持智谱 AI 最新的旗舰模型 GLM-4.7,其总参数量 355B,激活参数 32B:
高级编码能力:在公开基准与真实编程任务中,GLM-4.7 的代码能力对齐 Claude Sonnet 4.5,是国内已知的最好的 Coding 模型。
上下文长度:上下文窗口 200K,适应更长的代码和智能体任务。
推理能力:推理能力提升,并支持在推理过程中调用工具。
搜索能力:增强了模型在工具调用和搜索智能体上的表现,在智能体框架中表现更好。
写作能力:在文风、可读性与角色扮演场景中更符合人类偏好。
多语言翻译:进一步增强跨语种任务的处理效果。

接口规范#


MetaChat GLM API 采用标准的 GLM 官方接口定义,API 服务地址如下:
主用: https://llm-api.mmchat.xyz
备用: https://llm-api.mmchat.dev
由于 GLM 官方接口支持标准的 Anthropic 接口规范,开发者可直接使用 Claude 官方 Python 和 Node.js SDK 接入,只需要将官方 API 服务的基础 URL 和 API Key 更换为 MetaChat GLM API 服务的基础 URL 和 API Key,并设置 model 参数为 anthropic/glm-4.7 模型名称即可。

接口鉴权#


调用 MetaChat GLM API 时,需 API Key 进行鉴权(API Key 获取方法请参考 概述 文档说明。
与 Anthropic 官方接口鉴权规范相同,所有 API 请求都应在 HTTP Header 中包含 API Key,如下所示:

调用样例#


curl 命令行工具:
Python SDK:
Node.js SDK:
安全提示:上述样例为了简洁起见,将 API Key 以字符串形式硬编码在代码中,实际生产环境建议采用环境变量(如 METACHAT_API_KEY)保存 API Key,并分别在 Python 和 Node.js 代码中引用。

OpenAI 兼容接口#


MetaChat GLM API 同样支持 OpenAI 兼容接口定义,开发者可以直接利用 OpenAI Python 或 Node.js SDK 调用 GLM API,只需要将官方 API 服务的基础 URL 更换为 MetaChat API 服务的基础 URL 和 API Key,在 model 参数中填写 anthropic/glm-4.7 模型即可:
https://llm-api.mmchat.xyz/v1
https://llm-api.mmchat.dev/v1
调用样例
Python SDK:
Node.js SDK:
安全提示:上述样例为了简洁起见,将 API Key 以字符串形式硬编码在代码中,实际生产环境建议采用环境变量(如 METACHAT_API_KEY)保存 API Key,并分别在 Python 和 Node.js 代码中引用。
修改于 2025-12-31 16:54:47
上一页
模型价格
下一页
配置方法
Built with