LLM.PM 提供 API 代理服务,通过统一端点访问多种 AI 模型。
分类
LLM.PM 目前提供 3 个大模型 API。
速度基准测试平均吞吐 149 tok/s。
https://api-proxy.me