支持双向传输。
这就已经是十倍的传输效率提升了。
此外,黄仁勋还实现了大半年前,两人曾经讨论过的半精度支持。
孟繁岐当时在上一届Gtc大会后建议黄仁勋,未来的人工智能计算,数据和模型过大,很有可能会偏向半精度的数据类型,因为AI计算并不需要精确到小数点后那么多位。
这项后来成为人工智能计算标准的格式,在旧的麦克斯韦框架上并未得到支持。
如今看来,黄仁勋做得还是相当到位的。
孟繁岐的这个建议,单从理论上就已经提供了2倍的计算速度。
如果考虑到各种传输也会因此减少一般的数据体量,以及新显卡计算单元的专门设计,实际效果还会更好一些。
【当然,我们的目标并不仅仅是创造一款强大的硬件产品,而是为用户提供全面的解决方案。p100显卡充分支持英伟达的深度学习库,如cUdA和cudNN,为研究人员和开发者们提供了更高效、便捷的开发环境。无论是在科研领域还是商业应用中,p100都将成为您的得力助手】
这款p100产品比前世16年版本在硬件性能上要稍差一些,cUdA核心和频率数量都略有缩减。
不过由于提前一年就与孟繁岐达成合作,英伟达在几个关键路线上少走了很多弯路。
NVLink,半精度计算之类的功能都进行了提前布局。除此之外,还针对特性的算子和计算操作做了专门的优化。
不过这卡终究也是画饼罢了。
【第一批的p100显卡,已经有股东订购了大量的订单,以及谷歌、微软、脸书这些大公司。他们将会首先获得这些性能怪兽。】
不仅孟繁岐买了不少,谷歌等大公司也不会吝啬这个钱。
黄仁勋口中的“第一批”恐怕是远远不止一批,没个三五个月几乎不可能交付完成。
数据交互加上半精度的设计,将人工智能的相关训练过程提速十几二十倍,绝非空话。
孟繁岐是大股东没错,黄仁勋也同时需要考虑好几位AI大玩家的需求。
至于稍微小点的公司从最开始就被剔除在了游戏之外。
他们只能等待英伟达满足了第一批客人之后才有机会购入一部分,那时候可能已经是十个月后,16年的时候才有机会。
这对于正在高速发展期的人工智能领域来说就是垄断式的。
买不到设备,等到孟繁岐今年迟些时候推出30b版本chatGpt,以及各种绘图改图智能的时候。
都不需要费力气去山寨,就是直接代码送给伱,你也玩不起。
【你买的越多,就省得越多!】
台上,黄仁勋正在激情满满地推销p100。
这句话说得倒也没错,只是当买的多就赚得多的时候,这件事大概率就已经和普通人没什么关系了。
今生的人工智能也将提前进入生成时代,AIGc。
>> --