LM Speed
首页
免费 API
排行榜
提供商
文档
提交
切换模式
切换语言
LM Speed
Ollama (ollama.com) 测试记录 | LM Speed
Ollama
Ollama 提供了一个平台,用于在本地或云端运行和集成开源 AI 模型。
ChatGLM
GLM-5
ChatGLM
GLM-5.1
Minimax
MiniMax-M2.7
Ollama 目前提供 3 个大模型 API。
速度基准测试平均吞吐 53 tok/s。
平均速度
53.98 tok/s
延迟
20.77 s
总测试数
35
模型数
3
更新于
4/11/2026
创建时间
3/23/2026
网站
API 地址
ollama.com
概览
性能
3
价格
测试记录
7
嵌入
最近测试记录
分享
时间
模型
速度
延迟
Apr 13, 02:24 PM
ChatGLM
glm-5.1:cloud
40.89 tok/s
42.51
s
Apr 13, 02:20 PM
ChatGLM
glm-5.1:cloud
49.79 tok/s
25.82
s
Apr 13, 02:12 PM
ChatGLM
glm-5.1:cloud
94.03 tok/s
9.61
s
Apr 7, 11:24 AM
Minimax
minimax-m2.7
34.06 tok/s
5.97
s
Apr 7, 08:55 AM
Minimax
minimax-m2.7
31.79 tok/s
18.11
s
Apr 7, 08:11 AM
ChatGLM
glm-5
51.14 tok/s
34.23
s
Mar 23, 09:10 AM
ChatGLM
glm-5
76.14 tok/s
9.13
s
排行榜排名
速度
78.3 tokens/s
#41
/100