2019年全球人工智能与机器人峰会(CCF-GAIR)在深圳举办。英特尔高级首席工程师、大数据技术全球CTO 戴金权发表了题为《统一的数据分析及AI
驱动大规模业务洞察》的演讲,阐述了英特尔超异构计算的理念和软硬件协同创新的AI发展思路。戴金权在演讲中谈到,人工智能并非单一的工作负载,而是一种广泛的、能够强化所有应用性能的强大能力,而人工智能从实验室到落地需要统一的数据分析流水线。
“我们已经进入以数据为中心的世界,今天90%以上的数据是在过去几年中产生的,其中大概50%是在过去两年中产生,虽然说我们已经进入人工智能时代,但事实上大概只有2%的数据真正得到了分析,并且对生产和生活起到帮助。”戴金权谈及数据处理的行业现状。
究其原因,他认为大规模的人工智能应用还非常困难,不管从复杂性、成本、可拓展性等方面都是如此,把深度学习的算法从实验室搬到现实的生产环境中是需要考虑很多东西,从数据的收集、管理、清洗、特征提取、模型训练、推理,整合到分析的数据流,包括对整个集群的架构、服务等等各种管理。
根据千讯咨询发布的《人工智能市场发展研究及投资前景报告》显示,在这个过程中你需要有数据管理的部分,数据分析的部分,以及各种机器学习、深度学习、人工智能算法的部分,如何将这些不同的独立的框架整合到流水线里,将你的数据存储、清洗、分析、可视化变成一个统一的端到端解决方案,这有非常多的技术难题。
“BigDL是一个建立在大数据平台(Hadoop/Spark)之上原生的分布式深度学习库,它提供了在Apache Spark上丰富的深度学习功能,以帮助
Hadoop/Spark成为一个统一的数据分析平台。在这个基础上,我们去年又开源了Analytics Zoo项目,它是基于Apache
Spark、TensorFlow这些底层上更高阶的人工智能的流水线和平台,旨在加速大数据加上人工智能这个应用的创新以及更快的落地。”他阐述了英特尔的全栈软件方案。此外,戴金权在会后的访谈中告诉网易智能,英特尔做的就是希望通过Analytics
Zoo平台,帮助用户无缝从笔记本的生产原型扩展到集群或生产化部署。“这是我们和其他人不同的地方,也是我们的优势”。
资料显示,英特尔预计,数据中心AI芯片的总体潜在市场规模(TAM)正以25%的复合年增长率(CAGR)增长,预计到2023年将达到100亿美元。此前,英特尔提道,现在已经从以晶体管为中心转移到以数据为中心,单一因素不足以满足多元化的未来计算需求。英特尔认为只有六大技术支柱带来的融合创新才能应对未来数据的多样化、数据量的爆发式增长,还有处理方式的多样性。这六大技术支柱是制程和封装、架构、内存和存储、互连、安全、软件,它们是互相相关、紧密耦合。
在制程和封装层面,没有单个的芯片类型可以成为所有工作负载的最优解。英特尔把不同的小芯片,甚至是不同的核心连接起来,让单片SoC实现性能、功耗和成本的最佳组合。在架构层面,提供标量、矢量、矩阵和空间的多种架构组合,部署在CPU、GPU、FPGA和加速器套件之中。此外,内存和存储配备指数级的内存层级架构。互连方面,从片上、封装内互连、处理器间互连、数据中心互连到无线互连。安全也是其中的重中之重。
值得一提的是软件层面,英特尔有1.5万名软件工程师,他们的“One
API”项目就是旨在简化跨CPU、GPU、FPGA、人工智能和其它加速器的各种计算引擎的编程。未来几年,AI模型的复杂性以及对大规模深度学习计算的需求将爆发式增长。AI正在走向一个异构的世界。概况来说,英特尔在AI时代新的方法论概括起来就是:AI硬件趋于异构,软件趋于统一,最后一定是软硬件的综合体。