在互联网高速发展和数字化转型的背景下,通过多种客服渠道为客户提供“普惠化”、规模化”、“高效率"的服务,是金融机构必须长期面对的难题。中信建投证券搭建智能化客户服务平台(以下简称“平台”),在底层实现了跨业务线、跨系统、多渠道、全媒体的数据接入,并在此基础上构建了Al知识中台,为各业务场景持续提供知识快速生产服务。
平台涵盖公司服务的全生命周期。事前智“慧”,利用全渠道客户数据,构建客户画像,并基于客户画像构建以客户为中心的知识中台,实现对客户心声和意图的事前分析;事中智“助”,基于人机协同模式,在全渠道的客户服务过程中,提供智能服务手段和实时的沟通辅助;事后智“学”,对全员服务过程进行全面分析,寻找最优的营销服务策略,通过智能质检进行合规监控和分析,通过智能培训提升员工的服务技能。

图:智能化客户服务平台服务模式
平台采用web rte高品质音视频技术,创新视频、语音、文本三通道,支持 SIP /TCP /HTTP /WEBSOCKET多协议传输模式,这是中信建投证券客户服务平台实践的一次探索性尝试。中信建投在业务、科技联动的模式下,不断前进探索,完成了多项突破性进展。采用业内领先的智能语音识别、语音合成、语义识别、知识图谱技术使得系统的整体识别率稳定保持在90%以上。具备多轮对话扩展能力,具备ASR噪音智能识别技术,具备常用交互流程打断功能。

平台解决了四个问题:
其一,基于人机协作的理念构建系统,最大化实现人工和智能的优势互补,有效提升系统整体的服务效率。
其二,通过智能技术,有效解决电话/在线客服、电话回访等业务工作量大、人力培训成本高等问题,降低了企业成本,提升了服务效率。
其三,发展探索覆盖客服全流程的业务模式。服务质检覆盖全渠道客服过程,做到最大限度规避合规风险;数据埋点分析覆盖全流程服务,为管理者提供决策支撑,持续优化各个服务节点及服务流程。
其四,构建以客户为中心、跨业务线的客服知识,实现员工服务时对知识随用随取”的目标,提高知识资源的配置效率,助力公司财富管理转型。
平台具有三大创新点:
其一,全流程服务及分析:业务模式覆盖客户服务全过程,实现实时的话术推荐、合规提醒,并对员工进行业务流程导航。同时为服务过程建立数字化监控和分析手段,为管理者提供服务优化的决策手段。
其二,人机协作机制:多种智能技术手段(包括ASR、NLP、TTS等)与人工服务深度融合,全面覆盖客户服务渠道,为客户提供全天候、高质量的服务,缓解客服中心人力资源压力。
其三,以客户为中心的知识沉淀机制:基于Al知识中台,利用自然语义理解、知识图谱等技术重建以客户为中心的知识系统。降低员工学习成本,提升客服综合业务能力。
目前Al客服平台已经赋能多个业务部门,截至2022年底,智能化客户服务平台语音识别准确率达到90%以上,接管了25%的人工座席工作量、30%的人工电话回访量,降本增效效果明显。通过智能合规质检系统,实现了合规问题找得准、找得全、找得快,提高合规审核人员的审核效率,降低漏检、误检所带来的额外工作负担,目前质检系统每周可全量质检 6万通会话数据,替代80%的质检工作,获得了合规审核人员的认可。通过对全流程客服数据的持续分析,构建服务闭环,提升服务触达效率,提升服务质量。2023年智能化客户服务平台服务触达成功率同比提升15%,服务满意度同比提升10%。
疫情期间,智能机器人发挥了重要的作用,保证了各项服务接通率维持在正常水平,项目为证券行业提供实践方案和数据支撑,为行业智能化客服建设提供经验。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。