Altman认为,大小并非衡量一个模型质量的正确方式,他还把LLM与芯片的发展速度进行了比较。
我认为人们过于关注参数数量,也许参数数量肯定会增加。但是,这让我想起了上世纪90年代和2000年代的千兆赫芯片竞赛,当时每家公司都追求大参数。
正如他指出的那样,如今有些手机上运行着功能更强大的芯片,但用户大多数时候并不知道它们的速度有多快,只知道它们能很好地完成工作。
Altman认为,未来模型参数应该向更小的方向发展,或者以多个小模型协作的方式工作。
我认为,重要的是,我们将重点放在迅速提高(模型)能力上。
如果可以的话,参数数量应该随着时间的推移而减少,或者我们应该让多个模型一起工作,每个模型都更小,我们就会这样做。
我们希望向世界提供的是最强大、最实用、最安全的模型。当然,我们并不是要忽略参数数量。
Altman还说:
我们已经为此努力了很长时间,但我们的信心正逐渐增强,相信它真的会奏效。
我们建立这家公司已经七年了。这些事情需要很长、很长的时间。总的来说,我想说的是为什么别人没有成功的时候它却成功了: 这只是因为我们已经在研究每一个细节很长一段时间了。而大多数人不愿意这么做。