用MiMo vibe coding了一个周末后...

robot
摘要生成中

MiMo 刚出来之后,我就用 OpenCode 上面的免费额度去进行了尝试,做了一个小项目。这个项目本身难度不高,但是 MiMo 却卡了很久,而且也没有明显的错误反馈,当时对 MiMo 的感觉很不好。

但是周五晚上的时候,我又看到有人说 MiMo 官网的 token 计费方式效果会比 OpenCode 里的免费额度强很多,所以我去充值了 200 块钱,继续做了我原来的项目,以及两个稍微复杂一点的数据清理工作。

我的感受是,它确确实实比之前所有用 Coding Plan 的国产模型要强很多

这倒不一定体现在它单次执行成功率有多高,而是我之前使用 Coding Plan 的时候,会隐约感觉到国产大模型厂商都会对 Agent 调用进行一些限制:有可能是限制了思维链的长度,也有可能是限制了 Agent 执行的轮次,导致那些 Agent 倾向于在任务完成 50% 到 60% 的情况下就结束掉。对于那些真正难以处理的 corner case 或者是一些复杂的 bug,它就会装作看不见。
在 MiMo 上,我觉得这个问题会好很多。它确确实实可以扎扎实实地执行数个小时,就为了解决一些很刁钻的bug。逻辑上倒是很容易理解,就是对于Coding Plan,调用的越多,成本端就越高;而 Token 计费的话,调用的越多,收入也越多。
就我的实际使用而言,虽然花了两百块钱,但是解决了三个困扰了还蛮久的 task。我个人觉得还是挺值得的。就算我去网上买现成的数据,肯定也都不止 200 块钱了。

但这次使用体验让我想到一个国产模型比较矛盾的点:
像 claude 现在的顶尖模型已经可以替代很大一部分工作了,而国内模型厂商本身的能力其实也可以达到 Claude 的 80% 到 90% 了;但如果一直是以 Coding Plan 的这种方式来推广,实际的使用体验还是会差很多,稍微复杂或棘手一点的任务它都没有办法处理,这并不是模型能力不够,而是模型厂商对调用的限制,这种成本上的限制反过来又会影响 Agent 在工作中的普及和推广。

我觉得这个问题,主要还是算力的限制,以及国内服务型收费的定价习惯问题,不知道大家对这个有什么看法?
我自己的想法是,未来 3 到 5 年算力肯定还是会有极大的需求量,但问题就在于到底会是利好英伟达这种公司,还是真的能促进国产芯片的升级。

(最近也有人说 DeepSeek V4 迟迟难产,就是因为需要适配国产芯片,结果导致训练没有办法很好地收敛。。。)

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论