首页 > 资讯 > > 内容页

“Chat”并不是全部,中国AI发展最终要走深向实

发表时间:2023-07-07 19:05:22 来源:观察者网

【文/观察者网 吕栋】


【资料图】

ChatGPT的出现,让人工智能大模型迅速进入普通人的视野。但在经历半年多的“狂飙”后,曾经爆火的ChatGPT,流量已不再坚挺。当C端热度逐渐褪去,人们不禁开始思考,仅凭聊天、写诗、作画等功能,大模型就可以重构人类社会?人工智能的下一步该如何发展?

在中国,C端消费者可能感到ChatGPT比较新奇,但产业界应该对大模型并不陌生。早在ChatGPT出圈之前,华为就曾联合中科院、鹏城实验室等机构,打造出多个产业级大模型。普通人之所以不怎么熟悉,是因为这些大模型并不直接面向C端,而是服务于生产活动。

从以往的经验来看,先进技术比如5G的价值,并不能在C端完全体现,生产端可能有更多的应用场景。人工智能亦是如此,在被证明可用于复杂工业领域后,应该将人工智能加速应用在实体产业,为行业刚需带来实际价值,才能真正意义上大规模服务于社会。

“在华为看来,面对当前形势,既要乐观,又要保持冷静。我们认为,人工智能的发展,关键是要脚踏实地,推动人工智能走深向实,真正为千行百业服务,赋能产业升级。”

7月6日,在第六届世界人工智能大会上,华为轮值董事长胡厚崑发表题为《共赢人工智能新时代》的主题演讲。他表示,在人工智能发展的下一阶段,华为有两个着力点:第一,打造强有力的算力底座,来支撑中国人工智能产业的发展。第二,真正让人工智能服务好千行百业,服务好科研创新。

华为轮值董事长胡厚崑

打造坚实底座,让算力不再是瓶颈

算力是人工智能发展的基础,这一点是行业共识。

也正因为此,意图围堵中国人工智能发展的美国政府,近些年不断在算力层面对中国发难,比如说对英伟达高端GPU进行出口管制,亦或是计划限制中国企业使用美国的云计算服务。

在当前的外部环境下,中国在算力的可获取性和成本方面,面临着不小的挑战。打造自主算力底座,突破算力瓶颈,成为中国人工智能产业可持续发展的关键。

作为中国科技产业领头羊,华为长期深耕算力,打造了聚焦通用计算的鲲鹏和人工智能计算的昇腾,并通过架构创新、发展生态以及共建算力等手段,来支撑自主算力底座的打造。

进入大模型时代,算力需求呈现爆炸式增长,而训练大模型的成本和计算的效率息息相关。

华为首先是通过架构创新,来提高计算效率。

在节点层面,华为革命性推出对等平构架构,突破了传统以CPU为中心的异构计算带来的性能瓶颈,提升了整个计算的带宽、降低了时延,使得节点性能提升30%。

在数据中心层面,华为推出昇腾AI集群,系统整体设计改变过去的服务器简单堆叠,把计算、存储、网络、能源、调度等整合在一起,相当于把AI数据中心打造成一台超级计算机,以实现能效的倍增。万卡规模的数据中心,10%效率提升,能节省出一个省的公共算力(400P)。

基于这些架构创新,华为还对昇腾AI集群进行了全面升级:

从最初的4千卡集群扩展8千卡集群,年底将最大支持至1万6千卡集群,成为业界首个万卡AI集群。训练1750亿参数的GPT-3模型,100B的数据量,在8千卡集群下只需1天即可完成训练收敛,1万6千卡集群下仅需半天即可完成,业界SOTA(最高)能力需10天才能完成训练;最长可实现30天以上的长稳训练,业界SOTA能力仅在3天左右,十倍领先。

中国拥有丰富的应用场景,客户的算力需求也多种多样,为了提高计算效率,华为也结合国内实际情况,采用多种模式建设算力底座。

在城市算力基础设施方面,华为支持各地政府打造人工智能计算中心,提供普惠的算力基础设施服务。当前,全国已有25个城市,如武汉、西安、上海等,基于昇腾AI建设了人工智能计算中心。

另一方面,有相当多的大型企业,有自建人工智能算力中心的诉求,华为也在帮助它们构建独立的算力中心。例如,中国移动、科大讯飞、南方电网等企业,均在规划和建设大规模的算力集群,华为也积极参与其中。

同时,市场上也有很多中小型企业,对弹性算力有旺盛的需求,华为则通过云服务的方式,在华为云上提供人工智能算力服务,让中小企业可以快速敏捷的开发和应用AI,降低人工智能的使用门槛。

充沛灵活的算力供给,让算力不再是中国AI产业发展的瓶颈。

从“读万卷书”到“行万里路”

最近更新