首汽约车与亚马逊云服务Amazon Web Services, Inc. (AWS)联合宣布,基于AWS机器学习服务Amazon SageMaker和Amazon Transcribe开发的出行行业首个定制智能语音解决方案正式上线。基于该解决方案,首汽约车可以高效地将行程录音进行音频降噪、导航音分离,提取清晰的司乘对话内容,并将语音转成文字,从而通过场景化的关键词识别分析触发安全预警,实现实时行程安全监控,进一步夯实出行安全基础。此外,这一解决方案还可用于辅助客诉处理,帮助首汽约车进一步提升服务效率,降低运营成本。首汽约车还计划将其打造为行业通用解决方案,服务于其它网约车平台、传统出租车企业和货运企业,构建交通出行领域的智能解决方案,助推行业发展。
在网约车行业,司乘安全是重中之重。作为行业领先的出行服务平台,首汽约车在不断升级服务品质的同时,一直在夯实安全基础,并通过不断探索大数据、人工智能等互联网技术在出行行业中的创新应用,为用户带来更安全、舒适的出行体验,助力企业高质量发展。目前,国内普遍采用行程录音辅助安全监控,以及用户问题投诉处理。然而,现有的语音解决方案常常因为录音质量问题难以达到实际目的。为进一步提升司乘体验和服务效率,并降低成本,首汽约车决定利用人工智能和机器学习技术,打造一个智能语音解决方案来有效排除噪音、音乐、导航音等干扰项,并将语音快速准确地转换成文字。
AWS数据实验室和解决方案研发中心在深入了解行程录音的特点及技术需求后,开发了语音降噪和导航音分离算法,并利用Amazon SageMaker机器学习服务进行模型训练、部署和调优,实现模型的快速迭代。Amazon SageMaker机器学习服务极大地降低了首汽约车采用机器学习的门槛。通过这一全托管的服务,首汽约车的数据科学家和算法工程师只需要专注数据和业务逻辑,无需运营和管理复杂的机器学习系统。此外,首汽约车还通过Amazon Transcribe人工智能语音服务将行程录音自动转化为文字,从而实现通过场景化的关键词识别分析触发安全预警,结合后台安全监控人员的人工判断,让实时的行程安全监控从可能变成现实。在应用这一智能语音解决方案时,其对用户数据保留全部所有权,可以随时决定数据的存储及访问权,并确保所有访问行为的合规。

AWS大中华区产品部总经理顾凡
在用户问题投诉处理方面,客服人员可以综合利用文字和语音信息,及时准确地进行判别,提高工作效率,改善司乘满意度。通过使用智能语音解决方案,首汽约车实现客服人工审核工作量降低35%,客服人工听音审核时长缩短20%,并保证智能客诉处理准确率达90%以上,有效改善了司乘体验及满意度、提高企业运营效率,同时,通过智能判责替代人工,还可以有效的降低成本。首汽约车和AWS未来也将进一步紧密合作,丰富智能判责场景,如针对网约车服务中可能出现的司乘矛盾、行驶路线问题等,通过语音智能识别后用作判定的依据。

首汽约车CEO魏东
首汽约车CEO魏东表示,“保障司乘安全是网约车企业的责任。首汽约车一直在通过技术赋能安全,一方面加强自身技术研发实力,另一方面加强与有技术优势的知名企业合作,双管齐下,实现前沿技术能力的落地与应用。希望携手AWS共同为用户带来更卓越的出行体验,为行业智能化转型发展创造价值。”
“我们正处于机器学习的黄金时代。全球各个行业、各种规模的企业和机构,都在快速应用机器学习技术进行数字化转型和创新。” AWS大中华区产品部总经理顾凡表示,“当下,全球大部分云上机器学习工作负载都在AWS上进行,我们也将利用AWS全球领先的云技术持续赋能客户。此次,依托AWS广泛而深入的机器学习服务,我们在短短4个月内就完成了智能语音解决方案的开发和上线,也期待能够与首汽约车继续携手推动出行行业的智能化转型。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。