英特尔发布第二代“至强”处理器,进一步领先AI推理市场

  本月3日,英特尔发布了第二代至强处理器(Xeon Processor)。

  唔,虽然,还是在14纳米级别徘徊……但相较于第一代,第二代Xeon处理器新增了代号Cascade Lake-AP的铂金9200系列,最多可达56核心112线程。因此,第二代也被称为“Cascade Lake”。

  更重要的是,这代处理器内置了机器学习加速(Intel DL Boost)功能,推理性能提升1.4倍,被认为是将嵌入式AI性能提升到新的水平。按照英特尔执行副总裁Navin Shenoy在发布会上的说法是:“这是我们在过去五年中在Xeon处理器系列中提供的最大一代改进。”

  (图片来自网络,版权属于原作者)

  虽然众多名词可能你看得有点晕,但不得不说,在这个静悄悄背后,硅谷洞察观察到的是,这一次,英特尔新的处理器可以说在AI领域下功夫了。甚至说,大有挑战GPU的架势啊!

  先不管是否要真正叫板英伟达的GPU,但至少,英特尔在已有芯片市场格局下,拿下AI市场的决心是很明显了,尤其是主打AI推理的市场。

  今天,硅谷洞察就来跟你分析分析,英特尔在人工智能芯片的举动与未来格局。

  AI推理 VS AI训练

  在分析英特尔在拿下AI芯片市场的决心之前,硅谷洞察给大家再次普及下人工智能芯片到底哪些玩家有机会。

  我们都知道,使用深度神经网络分为两阶段。首先,第一阶段是“训练一个神经网络”,也就是我们常见的AI Training。第二阶段,是部署这个“神经网络”进行推理,使用之前训练过的参数,对未知的输入进行分类、识别和处理,也就是AI Inference。

  举个简单的例子方便大家理解。

  大家都知道,亚马逊的智能音箱Echo对吧。当你向Alexa提出一个问题时,比如“今天天气如何?”。Alexa听到问题,并决定告诉你今天天气的具体更新情况如何时,这就是基于推理的机器学习。而在回答问题之前,Alexa肯定被无数次输入不同的天气信息进行训练,从而才能遇到用户提问时答出来。

  因此,如果以当中关键的硬件——芯片来看,针对训练(Training)和推理(Inference)功能所达到的不同目标,就有不同的需求。

  简单说,针对人工智能训练(Training)阶段的话,需要很高的吞吐量,大量的算力、数据等,像英伟达的GPU就具有很高的计算精度,很强的并行、复杂运算的能力,但英伟达还是需要不断提高其内存带宽和数据吞吐量(Data throughput)。

  而推理方面,通常在数据量来说,会比训练分批输入少得多,但需要的是尽可能快的响应和能耗效率优化。

  按照英特尔预测,到 2020 年,推理周期和训练周期之间的比率将从深度学习初期的 1:1 提高至超过 5:1。也就是说,在人工智能领域,推理的比重将会越来越重要。英特尔称这一转变为 “大规模推理”。

  由于推理将占用近 80% 的人工智能 (AI) 工作流程,因此,真正的人工智能就绪之路显然需要从选择适合的硬件架构开始。

  上图是一个典型的人工智能工作流程,可见推理在人工智能的工作后半程占的比重的远大于前面数据训练的。这也是为什么硅谷洞察认为,英特尔在AI推理方面大力下苦工的原因。当然,因为内存密集训练已经是Xeon处理器的优势了。

  在发布会上,英特尔官方还透露了一个数据,Xeon处理器已经在当今市场上为80%至90%的AI推理助力了。

  实用场景:已跟菲利浦、亚马逊等展开合作  郑州妇科医院:https://yyk.familydoctor.com.cn/21521/

  在发布会现场,西门子医疗保健团队上场介绍了应用英特尔二代处理器的实际场景。没错,硬件被广泛应用的一个最大的核心步骤是跟工业领域合作。

  我们都知道,心脏MRI(心血管磁共振成像)是医生用于识别心脏病的主要工具,仅在美国,每年心脏病就造成约1800万人死亡。但手动检查MRI图像需要很长时间,如果医生可以使用AI来帮助分类图像并识别潜在的问题,那么就可以更快地提供护理。

  事实上,西门子用的就是英特尔新发布的二代处理器Cascade Lake。

原文地址:https://www.cnblogs.com/sushine1/p/10721859.html