最后是计算,无论是语言类还是图像类生成类模型的计算需求都很大,而图像类生成模型随着生成分辨率越来越高以及走向视频应用,对于算力的需求可能会大大提升——目前的主流图像生成模型的计算量在20 左右,而随着走向高分辨率和图像,100-1000 的算力需求很有可能会是标准 。
综上所述,我们认为生成类模型对于芯片的需求包括了分布式计算,存储以及计算,可谓是涉及了芯片设计的方方面面,而更重要的是如何把这些需求都以合理的方法结合到一起来确保某一个单独的方面不会成为瓶颈,这也将会成为一个芯片设计系统工程的问题 。
文章插图
GPU和新AI芯片,谁更有机会
生成式模型对于芯片有了新的需求,对于GPU(以和AMD为代表)和新AI芯片(以,为代表),谁更有机会能抓住这个新的需求和市场?
首先,从语言类生成模型来看,由于参数量巨大,需要很好的分布式计算支持,因此目前在这类生态上已经有完整布局的GPU厂商更有优势 。这是一个系统工程问题,需要完整的软件和硬件解决方案,而在这个方面,已经结合其GPU推出了解决方案 。支持分布式训练和分布式推理,可以把一个模型分成多个部分到不同的GPU上去处理,从而解决参数量过大一个GPU的主存无法容纳的问题 。未来无论是直接使用,还是在的基础上做进一步开发,都是拥有完整生态的GPU更加方便一点 。从计算上来看,由于语言类生成模型的主要计算就是矩阵计算,而矩阵计算本身就是GPU的强项,因此从这一点来看新的AI芯片相比GPU的优势并不明显 。
从图像类生成模型来看,这类模型的参数量虽然也很大但是比语言类生成模型要小一到两个数量级,此外其计算中还是会大量用到卷积计算,因此在推理应用中,如果能做非常好的优化的话,AI芯片可能有一定机会 。这里的优化包括大量的片上存储来容纳参数和中间计算结果,对于卷积以及矩阵运算的高效支持等 。
总体来说,目前这一代AI芯片在设计的时候主要针对的是更小的模型(参数量在亿级别,计算量在1TOPS级别),而生成模型的需求相对而言还是比原来的设计目标要大不少 。GPU在设计时以效率为代价换取了更高的灵活度,而AI芯片设计则是反其道而行之,追求目标应用的效率,因此我们认为在未来一两年内,GPU仍将会在此类生成式模型加速中独占鳌头,但是随着生成式模型设计更加稳定,AI芯片设计有时间能追赶上生成式模型的迭代后,AI芯片有机会从效率的角度在生成式模型领域超越GPU 。
END
【ChatGPT需要怎样的芯片?】欢迎加入 GPU与人工智能交流2群
- ChatGPT背后的开源AI框架Ray,现在值10亿美元
- 关于ChatGPT的版权和隐私问题,你怎么看?
- ChatGPT可能助长攻击者能力,引起IT专家警惕
- 借贷如何申请,民间借贷纠纷怎样申请财产保全措施
- 倒库怎样修方向,倒库怎么修方向
- chatgpt赋能python:Python制作录屏软件,让你的屏幕动作不再错过
- chatgpt赋能python:Python如何绕过检测封号的技巧
- 如何申请成为openai chatgpt的alpha内测人员
- 【实战教学】用ChatGPT+Midjourney做绘本,太轻松啦!
- chatgpt赋能python:介绍:Python经典小游戏合集