共计 1008 个字符,预计需要花费 3 分钟才能阅读完成。
早上照例更新 Qclaw,习惯性点开模型列表,愣了一下。
Kimi K2.6 和 GLM 5.1 赫然在列。免费使用。
我揉了揉眼睛,确认没看错。这两个可是目前国产大模型的第一梯队,平时要么付费、要么限量,今天居然全开放了?
赶紧试了一下。结果——
卧槽!腾讯这是拼上老命了!

4 月 23 日,Qclaw 照常推送更新。这次没写啥大新闻,但懂行的人一眼就看出来了:
模型列表里多了两个重磅选项:
Kimi K2.6 —— 月之暗面最新模型,长文本能力顶尖,代码和推理都很强
GLM 5.1 —— 智谱最新模型,中文理解能力一流,多轮对话丝滑
关键是: 免费 !
不是限 100 万、200 万那种,4000 万的量,是实打实可以在 Qclaw 里直接调用。我试了几轮对话,质量确实在线。
速用!手头比较难的项目啥的统统先用上!!!请速转给有需要的人!
简单科普一下,为什么这两个模型值得关注。
长文本 :支持 200 万 字上下文,读论文、读报告、读代码库都很稳
代码能力 :写代码、改 bug、解释代码逻辑,水平在线
推理能力 :数学、逻辑题表现不错
适合场景 :处理长文档、代码辅助、复杂推理任务
中文理解 :毕竟是国产,中文语感比国外模型好一截
多轮对话 :上下文连贯,聊久了不跑偏
工具调用 :支持函数调用,做 Agent 很合适
适合场景 :中文写作、多轮对话、搭建自动化工作流
这两个模型,单独拿出来都能打。现在放在一起免费给你用,四舍五入等于白嫖了两个顶级助手。
如果你已经装了 Qclaw:
1. 更新到最新版 :打开 Qclaw,等它自动更新(或手动检查更新)
2. 切换模型 :在对话界面找到模型选择,勾选 Kimi K2.6 或 GLM 5.1
3. 开始用 :直接对话就行,不收费
没装 Qclaw?
去官网下,配置简单。装好之后再按上面步骤操作。

1. 趁早用
这种开放通常是限时的,或者迟早会改成限量 / 付费。现在能用就用,别等。
2. 错峰使用
高峰期(上午 10 点 -12 点,下午 2 点 - 5 点)容易「服务器繁忙」。建议早上 8 点前或晚上用,流畅很多。 现在趁人少,抓紧用,难得能薅腾讯羊毛!
3. 别光聊天,试试正经活
既然免费,就别只用来闲聊,搞点复杂难度的!!!试试:
扔一篇长论文让它总结
丢一段复杂代码让它优化
写一个多步骤的任务让它拆解
这种级别模型的能力,日常用可能感觉不出来,真到复杂任务上,差距就出来了。






