老有所终网

Artificial Analysis评测新鲜出炉:Kimi K2 thinking位居世界第二,开源第一

来源:老有所终网-工人日报
2026-03-21 06:11:50

根据著名AI分析机构Artificial Analysis的评估,Kimi K2 Thinking在智能体(agentic)相关任务中表现非常突出,但在完成评测时生成了所有模型中最多的token,表现出非常“话痨”的特性

以下是其核心要点:

智能指�分,登顶开源榜首

Kimi K2 Thinking在Artificial Analysis智能指数中获�分。

这一成绩使其明确领先于所有其他开源权重模型,包括最近发布的MiniMax-M2(61分)和DeepSeek-V3.2-Exp(57分),在所有模型中仅次于GPT-5

Agent能力突出,推理表现强劲

Kimi K2 Thinking在智能体应用场景中展现出强大实力,在Artificial Analysis智能体指数中排名第二,仅次于GPT-5

其优异表现主要得益于在²-Bench Telecom基准测试中取得�%的成绩。这是一个智能体工具使用评测。这是该机构独立测量到的最高分

此外,在Humanity’s Last Exam(人类终极考试)评测中,Kimi K2 Thinking在无工具情况下的得分�.3%,创下开源模型历史新高,仅次于GPT-5和Grok 4

成为新晋开源代码模型冠军

尽管Kimi K2 Thinking并未在任何一项代码评测中夺得总冠军,但相较于其他开源模型,它在各项评测中均排名第一或并列第一

具体排名为:Terminal-Bench Hard񌾾名,SciCode񌾿名,LiveCodeBench񌾺名

因此,它在Artificial Analysis代码指数中超越了先前的开源领导者DeepSeek V3.2

更多排名:

模型细节:1万亿参数,INT4原生精度

模型规格:总参数񛈗万亿,激活参�亿(�GB),仅支持文本输入,拥�K上下文窗口

模型定位:该模型是Kimi K2 Instruct的推理变体,拥有相同的架构和参数数量

INT4精度:与此前Kimi K2 Instruct发布的FP8精度不同,该模型原生以INT4精度发布。月之暗面在后训练阶段使用了量化感知训练来实现这一点。这使得模型大小仅为�GB,相比K2 Instruct񊄩TB以上大幅缩小,从而提升了推理和训练效率

代价:高冗余度、成本与延迟

Kimi K2 Thinking表现得非常“话痨”。在完成智能指数评测时,它总共使用𱄽.4亿个token,约为DeepSeek V3.2񊄪.5倍,GPT-5񊄪倍。

高冗余度直接影响了成本和延迟

基础版API:

定价:输入 百 万 , 输 出 2.5/百万token。

评测总成本:$356,比顶尖前沿模型便宜(比GPT-5(高)便𹐚.5倍),但比DeepSeek V3.2񘐛倍

速度:非常慢,񏊄个输出token/秒

Turbo版API:

定价:输入 百 万 , 输 出 8/百万token。评测总成本:$1172,是第二昂贵的模型,仅次于Grok 4。速度:相对较快,�个输出token/秒

报告指出,此次发布再次凸显了一个持续的趋势:后训练,特别是强化学习(RL),正在推动推理模型和涉及工具调用的长程任务性能实现增长

参考:

https://artificialanalysis.ai/models/kimi-k2-thinking

责任编辑:老有所终网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

老有所终网微信


老有所终网微博


老有所终网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。