至顶网CIO与应用频道 06月17日 人物访谈(文/王聪彬):人与机器的比赛可能大家都不陌生,最近在象棋领域,一位挪威的象棋选手与人工智能机器人进行比赛,其中一局战成平局,赛后通过软件分析象棋选手其实在这一局中60步内就能取得胜利。
像这样预测未来的能力,运用在企业中则可以预测到业务可能会发生的变化。Teradata天睿公司首席技术官宝立明(Stephen Brobst)看到越来越多的企业已经开始使用高级分析来获得洞察,优化业务流程和业务成果,包括使用机器学习、数据挖掘、预测性分析、位置分析、高级可视化技术等等。
Teradata天睿公司首席技术官宝立明(Stephen Brobst)
向前看预测未来
高级分析一直是一个热门话题,高级分析主要分为三个阶段,第一、描述性分析洞察过去;第二、预测性分析了解未来;第三、指导性分析为可能发生的结果提供建议。
宝立明形象的把描述性分析比作驾驶员在看汽车的后视镜,通过后视镜描述过去发生的事情,如果开车总是盯着后视镜就肯定要撞车,所以一个好的司机除了看后视镜,更多时间要往前看,也就是分析中的预测性分析。
而中国大多数企业更多是向后看,并没有把更多时间放在预测未来上。
谈到高级分析必定要谈到机器学习,像银行中存在着非常多的欺诈误报,对高价值的客户这往往是致命的,使用机器学习则可以提高50%的欺诈诊断率,同时把误报率降低90%,提高客户体验。当然在制造、运输等行业,同样可以预测汽车零部件的故障情况等。
机器学习引擎是由广泛的分析功能组成,除了数据准备、非结构化数据解析功能外,还涵盖人工智能、统计、文本、情感判别等各种分析类型。
宝立明表示,机器学习可以提供200多种不同的关系或者联系,能够帮助科学家做出描述性或者预测性的分析。图引擎可以进一步匹配需求,实现关系分析,了解网络用户、产品、过程乃至任何联网实体中的关系将怎样影响结果。
当然,企业在使用人工智能时大多会从业务场景出发,像美国的银行更专注反欺诈和风险管理,中国的银行更关注获取客户和创新,这都是基于企业的需求产生的差异化应用。
获取高级分析能力
高级分析可以帮助企业降低成本、增加效益、快速创新已经成为共识。Teradata Vantage则是可以帮助企业快速获得高级分析的能力。
Teradata Vantage是一个端到端的分析流程,可以随时分析所有数据,提供描述性、预测性与指示性分析、自主性决策、机器学习、可视化工具等广泛功能。平台可部署在公有云、本地环境、优化型或通用基础设施,或以“即服务”方式提供。
Teradata Vantage包括三大部分:工具和语言、功能和引擎、集成数据集,其愿景是使用用户最喜欢的分析工具、运用最适合的语言、访问新类型数据源等大量不同类型的数据、使用最佳分析功能和领先的分析引擎。宝立明提到,Teradata Vantage在首次发布时,就已经涵盖了各方面的使用案例,包括预测、细分、因果关系、情境、社交网络、假设测试等。
例如,一家医疗器械制造商,其设备7*24小时连续工作,通过分析传感器采集数据可以预测到某一天或者某一时间可能会发生的故障,采取预先性维护;一家零售商有着多种销售渠道,通过多渠道整合关注事件数据,了解完整的客户购买路径、满意度等,并进行后续推荐;一家全球金融机构对客户关闭账户行为进行分析,在客户关闭账户前进行干预,减少账户关闭事件。
当然现阶段,在企业中想要大规模部署人工智能可能还是一大挑战,人工智能需要分析大量数据,Teradata Vantage则可以提供海量并行处理能力,以及扩展能力,例如在深度学习中扩展计算模型,甚至使用GPU。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。