外骨骼

有些问题我花十个小时能想明白。现在我更愿意花半小时让LLM想。

我管这叫外骨骼。人还是那个人,只是能举起更重的东西。

外骨骼不会自己动。你得告诉它往哪走,马达才转。目前最大的问题是上下文从哪来。

我看到很多人在试:Manus、浏览器、操作系统。有人觉得这些不过是套壳的API,但他们绝对不止这些。

今天刷到一个AI语音输入法。以往我看到这些产品都是不屑一顾。2年前我被FOMO着买了rabbit r1,之后我对任何的AI产品从来都是不狂热地全面拥抱。

“输入法"这三个字,中文使用者格外熟悉,五笔仓颉全拼双拼。但英文母语者可能从没想过,他们从没有操作系统之外的那层中间件。这也许是为什么我看到输入法的时候愣了一下,这是一个天然无感的上下文收集器。

键盘是把脑子里的东西输出来,语音是,眼镜是,Neuralink也是。不过带宽不同,什么是拨号上网,而我们离提速降费又有多远?

我自己不爱说话,思考全是静默进行。以前我一直觉得这是优势,语音信息熵低,文字也能帮我梳理思绪。我很早全面拥抱AI,此刻也在想,自己的哪些习惯会被时代碾过去。

也许明天上下文窗口扩大一百倍,也许后天推理能力跃升一个量级。也可能十年后还是老样子,整个世界再花最后2年去做工程上的提升,整个世界再花8年享受用外骨骼走到山顶,发现如果想站得更高我们需要翅膀,于是焦点再次回到区块链和其他概念。

../