关于“AI泡沫”的问题,想看一看市场主流的正方和反方,页面正好停留在ChatGPT里,于是顺手点开了Agent模式,工作了26分钟,结果差不多是我想要的。
当然,我也很顺手的把结果文档送进了Gemini的Canvas:很清晰的三页。明明生成了文本类型的报告,为什么一定要可视化,很简单:为了信息压缩,可视化是更直观的方式,快速找到那些跟常识有点不太一样的数字或者结论,再回去比对。可惜,如今我能从ChatGPT和Gemini中找到错误的几率越来越低了。
当然,中文是为了发文章方便。



一度,Claude的Artifacts是我最多使用的可视化工具,但是随着Gemini Canvas越来越好,我基本都在Gemini里完成了:审美更好,信息更聚焦。
相比之下,GPT-4o时代的Canvas就落后的有点明显了。
GPT-5改变了这个印象,以下是GPT-5 Canvas的截图。基于Tailwind CSS的典型黑白配色,结合字体选择,我觉得挺好看的。




不过,相比之下,它有一个问题:在报告文字里提到了2024年电力消耗是8TWh,2030年预计652TWh,但用Python画了一张2026年是52TWh的图。我查了以下infinitive的来源,确实提到了2026年52TWh的预测。所以这张图GPT没画错,上面的Gemini更是完全理解正确。ChatGPT在Cavas画图时自己“想多”了,拟合出了一张二阶导为正的“走势图”。这算不算幻觉?我认为,算。

我对两个模型的可视化都很满意,不仅仅因为内容清晰完整,更因为它们都理解了我希望可以看到每种观点“溯源”的需求。
Gemini输出的是html,304行,ChatGPT是ts组件,393行。都很精炼,Gemini代码输出时间明显快,大概就半分钟时间。
本来,到这里我一项任务就算完成了。但是一段时间来国产模型的尝试,尤其是前两天试了Kimi的OK Computer后,还是有了许多比较的心思,所以我准备让Kimi也做一下可视化,验证我前一篇文章写完后遗留的一些想法。
因为我三次OK Computer免费额度已经用完,所以,就先直接试K2模型的输出。结果如下:

Html代码249行,很多人轻视可视化对模型能力评价的意义,在我看来,可视化可以代表非常多的信息。模型能力高下,一眼可见。
我犹豫了几秒,点了Kimi的订阅,19美金/月的那种,来都来了,没有理由不继续下去的。于是,同样的要求给到OK Computer。

与我之前的尝试不同,这次我没有要求,却使用了Web Search搜索工具,其实,在这个任务下,我是不希望开启搜索的,因为会影响到可视化的结果。
当然,看上图的过程,三个markdown文件深得我心,interaction、design、outline,我在之前写过关于“vibe coding的五个原则”,第一点,就是“设计先行”。
OK Computer非常“勤恳”,干了半个多小时,终于做完,如上的结构一样,给了一个完整的网站。时间长也有部分原因当然是因为token输出速度不够快(目测就是20多的水平,跟Mac跑OpenAI的oss120b差不多速度)。
页面一共四个tab,截图如下,链接:https://www.kimi.com/share/1999624f-bd02-8af9-8000-00000bf80282。




如上,真的信息量巨大,关键还创造性的加入了“来源验证”,别说,结论还挺合理的。但是也因为开启了搜索的原因,“私货”夹带的也不少。
我喜欢首页的背景和走马灯的文字效果,虽然没什么用,但至少说明“用心”了(当然因为是动态效果,导致截图不太正常),我也喜欢“来源验证”部分。
我不喜欢“过度思考”的部分,多余且有错误。
实事求是讲,OK Computer的网站有点“炮弹打文字”了,但是相对于直接生成的“有点寒颤”的结果,那就还是OK Computer吧。
Gemini Cavas耗时一分钟不到,OK Computer是半小时,结果差不多打平吧。
一丝悲凉又出现了:竭尽全力才可以打平那些看起来的“毫不费力”。
幸运的是,似乎绝大多数时间,勤可以补拙,模型也一样。