Jeff Lipniskis在PPG公司负责的是IT业务线。作为该公司全球IT、建筑涂料和拉丁美洲的总监,他直接汇报给公司首席信息官,并负责公司建筑涂料业务的全球IT工作,领导该公司有关防护和船舶涂料业务的IT公司,以及监管研发部门的IT工作。
作为在PPG工作了21年的老员工,Lipniskis经历了公司一系列重大投资组合转型和全球化进程。在过去的20年中,PPG进行了60多次收购,销售额增长了大约一倍。如今,PPG是全球最大的油漆和涂料制造商,业务遍及全球65个国家。
近日,Lipniskis在IDC数据和分析峰会上,和IDC分析师Derek Hulitzky探讨了他在PPG公司是如何利用数据为业务战略赋能的。
标准化和灵活性之间的平衡
Jeff Lipniskis:在通过收购进行转型的过程中,你会看到基础设施出现了多样化,有不同的ERP平台,越来越复杂的应用组合。而且更重要的是,当你将这些不同的组合整合在一起的时候,业务流程会发生很多变化。而且,数据正是在业务流程的层面上发生了交汇,数据在这些流程中生成、受到管理。因此,从整个组织的层面来说,我们要花费大量时间在实施标准化上。
如果收购之旅持续进行下去的话,当更多不同组织融合进来,我们将如何优化供应基础?我们如何优化制造和实验室、对其进行巩固并使其具有恰当的规模?我们如何打造一种客户体验,让你觉得你只是在与PPG开展业务,而不是一家收购了60多家不同公司的企业打交道。数据是其中一个关键的部分,对实现这种客户体验起到的推动作用。
但是归根结底,我们需要在IT方面保持灵活,以确保我们达成了这些业务成果的目标。
良好的监管
我们的核心是围绕全球治理和监管开始的,拥有良好的主数据管理,数据丰富的项目和流程标准化,并实现持续发展。
然后我们开始审视这一战略的下一个重要支柱,也就是围绕数据架构进行开发,对数据和定义的统一视图,拥有跨不同系统的资源。那么你如何将其联系在一起,并横跨多个业务线?
选择恰当的工具
作为Azure云上采用微软的客户,我们在报告和分析等方面使用了微软工具集。但是在AI/ML方面,你会看到一些变化,越来越多的是因地制宜,而不是一刀切,也就是说,你要看哪些是最适合你的模型,或者有哪些最现成的工具。这样你就可能有很多个不同的供应商,有时候你需要连接到多个不同的云,利用多套解决方案来构建这个模型或者具备某种能力。
投资数据架构
老实说,我们在这方面的成熟度是非常低的,我们是通过引入外部专业知识才帮助我们达到了当前的架构水平。我们的架构还在不断演进。如今,我们正在构建内部人才和内部能力,从而继续保持该架构的状态并不断演化。如果时光可以倒流的话,在架构上进行的前期投资从长远来看对我们将是有益的。
数据准备
我们的确很专注于所有新系统的实施,以确保我们生成越来越多的数据和遗产都是尚未为人工智能做好准备的。你需要创建数据质量指标,需要进行审计,从第一天开始就进行验证,即使你还没有将数据放入模型中,总有一天它会让你达到你的目的,也许是一年,两年,或者三年,总而言之,朝着这个方向走下去不会有太糟糕的结果。
PPG数据战略的下一步是什么,对我们来说,这将是我们提高现有基础成熟度的举措之一,我认为我们已经打下了一个很好的基础,在这个基础上我们通过学习和适应并继续保持灵活性来不断实现演进。如果展望未来,我相信我们肯定会更加关注人工智能和机器学习所带来的影响,我们将看到人工智能和机器学习技术加快发展,我甚至认为当我们的数据做好了准备,这将是“指数级”的增长。因此,我认为,未来的重中之重将是AI/ML。
好文章,需要你的鼓励
思科首席信息官Fletcher Previn分享了AI如何影响其职责和整体开发周期。他指出,AI发展速度超过摩尔定律预测,人们75%的时间都在做非核心工作。AI时代为重新思考工作"操作系统"提供机会,可以在企业内部普及高效工具。思科内部正通过AI增强来提升效率,设立了"AI作为IT和全体员工十倍生产力推动器"的新目标。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
谷歌宣布开始向Google TV Streamer推出Gemini智能助手,取代原有的Google Assistant。用户可通过更自然的语音交互获取内容推荐,如询问适合夫妻共看的电影或了解剧集剧情。Gemini还支持教育和生活指导功能,能解答各类问题并通过YouTube视频提供DIY项目指导。该更新将在未来几周内向18岁以上用户推送,这是谷歌用Gemini全面替代Google Assistant计划的重要步骤。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。