cw723 发表于 4 天前

GLM-5这个模型也还可以啊。

<br />
DEEPSEEK-R1 太容易科幻思维了。<br />
<br />
而且调温度也没用。 不知道为啥聊几句就变的很抽象。<br />
<br />
反而GLM-5还可以。

karson 发表于 4 天前

<img src="https://hostloc.com/static/image/smiley/default/smile.gif" smilieid="1" border="0" alt="" />今天用GLM-5执行长任务 到后期容易出现语无伦次然后停止 不知道是不是我一个人的问题

zh000323 发表于 4 天前

我觉得k2.5比glm5好用,glm5好慢

cw723 发表于 4 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16663280&ptid=1464313" target="_blank"><font color="#999999">zh000323 发表于 2026-3-6 13:43</font></a></font><br />
我觉得k2.5比glm5好用,glm5好慢</blockquote></div><br />
KIMI 服务器好吧。 GLM5 可以白**啊 。<br />
<br />
https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj<br />
<br />
实名认证 3月15日前拿450元。<br />
<br />
可以用GLM-5&nbsp;&nbsp;DEEPSEEK-R1 0528&nbsp;&nbsp;MIMIMAX M2.5<br />
<br />
其他不太值得用。

zh000323 发表于 4 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16663399&ptid=1464313" target="_blank"><font color="#999999">cw723 发表于 2026-3-6 14:31</font></a></font><br />
KIMI 服务器好吧。 GLM5 可以白**啊 。<br />
<br />
https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj</blockquote></div><br />
你这个我前两天就薅了<img src="https://hostloc.com/static/image/smiley/default/titter.gif" smilieid="9" border="0" alt="" />

rqp 发表于 4 天前

<img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" /><img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" />

mslxd 发表于 4 天前

kimi 一直还可以的,其他不行,都吹得厉害,实际不行

Musk 发表于 4 天前

那肯定可以<br />
https://arena.ai/leaderboard/code<br />
排名比gemini3 还高,

williamc2 发表于 4 天前

<img src="https://hostloc.com/static/image/smiley/yct/010.gif" smilieid="41" border="0" alt="" />

flypei 发表于 4 天前

就是速度太慢了
页: [1]
查看完整版本: GLM-5这个模型也还可以啊。