lidang 立党 (推特中文反诈第一人) on Nostr: 对于这么多方法去猜o1是怎么做的,我还是一句话, 对于post ...
对于这么多方法去猜o1是怎么做的,我还是一句话,
对于post training scaling law,训练一个爱因斯坦级超级聪明的模型,比让1000个傻逼简单的GPT-4 multi agent system去帮你同时糊网页,恐怕要难得多,
而且就目前阶段,后者的商业价值和落地场景,也比前者要多一些。
对于如何造爱因斯坦的问题, 还是留给“海量顶级专家精确计算”,如果你自己想糊东西,从后者角度出发的可行性会更高。
对于post training scaling law,训练一个爱因斯坦级超级聪明的模型,比让1000个傻逼简单的GPT-4 multi agent system去帮你同时糊网页,恐怕要难得多,
而且就目前阶段,后者的商业价值和落地场景,也比前者要多一些。
对于如何造爱因斯坦的问题, 还是留给“海量顶级专家精确计算”,如果你自己想糊东西,从后者角度出发的可行性会更高。