至顶网CIO与应用频道 06月05日 人物访谈(文/王聪彬):英特尔与腾讯的合作由来已久,在云计算领域并不算短。但英特尔数据中心集团副总裁兼云服务供应商集团总经理Raejeanne Skillern却说,这才是刚刚起步,英特尔一直持续聚焦在云计算、大数据、人工智能上的创新。
到2020年,全球将有超过500亿台设备和2000亿个传感器互联。英特尔正为云服务提供商提供最强大的产品和技术,以AI推动云到边缘的全面创新,为合作创造无限可能。
英特尔数据中心集团副总裁兼云服务供应商集团总经理Raejeanne Skillern
AI推动云到边缘的全面创新
很多人都有疑问人工智能应该从哪里做起?Raejeanne Skillern给出的答案是你可以从今天正在使用的基础设施上出发。去年英特尔发布了至强可扩展处理器,致力于工作负载的优化,保证客户所需的算力,加速产业数字化转型并创造服务改进人工智能。
基于至强可扩展处理器, 通过Intel Caffe框架优化,GoogLeNet模型的性能提升了198倍,AlexNet模型的性能提升了127倍。今年即将发布的下一代至强将会有更多突破性技术、特色以及优化。
英特尔一直认为一款产品不能满足所有的客户需求,还有像优化工作负载、实现更高的成本效率方面的特定需求。所以针对不同的需求和工作负载,英特尔除了至强可扩展系列,芯片层面还有像Altera实现可编程解决方案和算法、用于训练和推理的神经网络处理器Nervana、加速计算机视觉应用,低功耗高性能系统芯片平台Movidius。
在今天,人工智能可能还很难应用于产业里。英特尔正在通过与数据科学家合作制作模型、设计参考架构,尽快将智能零售业、安保、健康等解决方案带入市场。
英特尔与腾讯的合作一直致力于提升AI行业解决方案的简便和易用性。Raejeanne Skillern特别提到微信这个全球化的现象级产品,通过至强可扩展处理器提升语音识别算法。而在与腾讯云的合作中,通过灵活的资源编排和高实用性来保证产品技术各个层级的安全性和可靠性,从数据中心到终端再到设备提供最先进的云服务解决方案。
一个例子是,通过将英特尔Movidius超低功耗计算机视觉深度学习引擎安装在网关和设备上,可以使数据分析延伸到终端。这项技术可以应用在智能零售、公共安全领域,包括终端的计算机视觉,无人机。
腾讯云正在能源行业提供边缘计算服务,英特尔支持腾讯与合作伙伴高能网搭建了智能能源项目。基于云端的至强可扩展处理器、边缘的凌动处理器形成智能路由器,可以实时捕捉能源电网中的各种波动,以最优化的方式来指挥生产、传输、使用,最终达到节能和高效的目的。
不断拓宽合作的边界
英特尔与全球的云服务商都有着非常深入的合作,Raejeanne Skillern在10多年前就发现云服务提供商和企业用户的需求有所不同,英特尔也从硬件、系统、服务、基础架构等层面进行全面投入。
除了全球最大规模的七家云服务提供商,目前英特尔还与两百多家国内外各种形式的云服务商进行合作,同时Cloud Insider计划将合作伙伴拓展到两千家。英特尔同合作伙伴的合作并不是单纯的按照技术种类分类,而是通过工作负载、服务器的使用方式为云服务商提供相应的服务。
在与众多云服务商合作的过程中,英特尔销售与市场营销集团副总裁兼全球云销售集团总经理Kit Ho Chee看到,云服务商都有着各自的特点,主要的区别在于企业运营模式的不同。
但是云服务商的共性也很明显,随着服务规模的不断扩大,以及服务种类的多样化,云服务商都不约而同的对总体拥有成本提出更高的要求,同时稳定性、安全性更是所有行业的通用需求。
“在稳定性、推理能力、神能网络能力等层面客户都在不断提出更高的要求,其中一些特殊的应用场景和工作负载则可以放在专用的处理器上。”Raejeanne Skillern表示,英特尔也收购了可编程门阵列(FPGA)、定制化的专用集成电路(ASIC)等公司,通过专用加速器来满足不断提高的使用要求。
企业应用上云的步伐正在不断加快,云服务商们也正在推动整个生态环境,通过独立软件开发商(ISV)、系统集成商(SI)合作伙伴来帮助客户,将传统应用更快速、平滑的迁移到云上。
而英特尔的目标也非常明确,即让“至强”更强,让合作伙伴和企业客户更简便,易用的使用技术。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。