Chiplet技术的原理有点类似搭积木,简单来说就是把一堆小芯片组合成一块大芯片。这种技术能够以较低的成本制造过于复杂的芯片,并且保证足够优秀的良率,从2012年开始就逐步被使用。当前Chiplet技术已经能够在二维平面上实现用不同的材料和工艺加工拼接的小核心,Intel等公司正在把Chiplet技术引入新的阶段发展:在垂直方向上堆叠多层小核心,进一步提升芯片的性能(例如Intel于2018年开发的Foveros 3D Chiplet)。不过Chiplet技术路线面临的最大问题来源于芯片热管理方面:如果在三维结构上堆叠多层小核心,传统的通过CPU顶部铜盖一个面散热的方案将无法解决发热问题,因此可能需要在芯片的内部嵌入冷却装置来解决发热功率过高的问题。
MIT Digital Lab的研究者联合韩国的相关机构在2020年发表了一项基于1058篇深度学习的论文和数据的研究。在分析了现有的深度学习论文成果后,研究人员提出了一个悲观的预言:深度学习会随着计算量的限制,在到达某个性能水平后停滞不前,因为在深度学习领域有这样一条规律:想提升 X 倍的性能,最少需要用 X^2倍的数据去训练模型,且这个过程要消耗X^4倍的计算量。即便是10倍性能提升和1万倍计算量的提升,这样失衡的比例关系也仅仅是理论上最优的。在现实中,提升10倍性能往往要搭上10亿倍的运算量。以今天地球资源的状况看,想把一些常用的模型错误率降低到人们满意的程度,代价高到人类不能承受。因此,在深度学习领域非常值得关注的是可大幅降低训练成本的新算法创新。
我们认为投资机构在机器人领域投的并不单纯是智能硬件或国产替代,而是押注未来数个万亿级、数十个千亿级、上百个百亿级工作场景的无人化;未来机器人公司主流定价方式很可能取决于可替代的必要劳动价值,机器人公司直接提供高粘性持续的收费服务(Robot as a Service),而非按照传统的“BOM成本+一定的毛利空间”去定价。