GLM-5这个模型也还可以啊。
<br />DEEPSEEK-R1 太容易科幻思维了。<br />
<br />
而且调温度也没用。 不知道为啥聊几句就变的很抽象。<br />
<br />
反而GLM-5还可以。 <img src="https://hostloc.com/static/image/smiley/default/smile.gif" smilieid="1" border="0" alt="" />今天用GLM-5执行长任务 到后期容易出现语无伦次然后停止 不知道是不是我一个人的问题 我觉得k2.5比glm5好用,glm5好慢 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16663280&ptid=1464313" target="_blank"><font color="#999999">zh000323 发表于 2026-3-6 13:43</font></a></font><br />
我觉得k2.5比glm5好用,glm5好慢</blockquote></div><br />
KIMI 服务器好吧。 GLM5 可以白**啊 。<br />
<br />
https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj<br />
<br />
实名认证 3月15日前拿450元。<br />
<br />
可以用GLM-5 DEEPSEEK-R1 0528 MIMIMAX M2.5<br />
<br />
其他不太值得用。 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16663399&ptid=1464313" target="_blank"><font color="#999999">cw723 发表于 2026-3-6 14:31</font></a></font><br />
KIMI 服务器好吧。 GLM5 可以白**啊 。<br />
<br />
https://ai.baishan.com/auth/login?referralCode=1gBchrnPpj</blockquote></div><br />
你这个我前两天就薅了<img src="https://hostloc.com/static/image/smiley/default/titter.gif" smilieid="9" border="0" alt="" /> <img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" /><img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" /> kimi 一直还可以的,其他不行,都吹得厉害,实际不行 那肯定可以<br />
https://arena.ai/leaderboard/code<br />
排名比gemini3 还高, <img src="https://hostloc.com/static/image/smiley/yct/010.gif" smilieid="41" border="0" alt="" /> 就是速度太慢了
页:
[1]