案例基本内容和执行情况
在竞争激烈的证券市场,提升内部运营管理水平,降低客户服务成本,实现智能化和数字化运营已成为证券企业的基本要求。采用RPA方式的非侵入性改造可以大大提升工作效率,从而优化证券企业的运营管理水平,降低客户服务成本,实现智能化和数字化运营。
西部证券数字员工取名为小Q君,小Q君中“君”源自集团君子文化“博闻强识而让,敦善行而不怠,谓之君子”。“Q”表示特点:“quick(敏捷的)、quality(优质的)、 quantity(批量的)、qualified(有效的)、quest(探索性)”。小Q君作为西部证券数字员工虚拟形象,担任西部证券数字化转型的排头兵。
西部证券数字员工平台多个创新亮点
1、RPA+AI+数据中台技术相辅相成
RPA、Al、数据中台各司其职又相辅相成,共同推动西部证券数字化转型发展。数据中台作为连接前后台系统的中间层,对前台业务的敏捷性形成强力支撑。Al处理非结构化数据,通过OCR、NLP等功能模块,让复杂业务简单化。RPA在不侵入原有系统的同时,完成企业自动化的最后“一公里”。同时,RPA可以作为接口打通底层数据,进行跨系统数据整合,且本身具备中台和低代码属性,数据中台在执行过程中需要调用大量数据,又可以通过低代码完成引擎的搭建,三者功能相互补充共同助力企业数字化转型。
2、模式创新:RPA as a service,微服务赋能业务敏捷进化
通过服务化能力,将编排沉淀的自动化任务以标准API对外提供服务,结合现有BPM平台将数字员工能力以业务服务方式提供给业务用户使用,结合现有业务系统需求场景提供数字员工服务接入,实现数字员工的业务服务化并支撑全流程的自动化。
3、开发创新:非侵入式灵活部署,旨在实现业务流程自动化
RPA相对于传统代替人类手工劳动的机器人,主要用于在信息系统的自动化操作,具备自动执行预定流程和跨系统协同的能力。而与ERP、OA等特定应用场景软件比较,RPA普适性更强,可以跨部门、跨行业进行部署。且RPA是非侵入式软件,无需改变现有系统即可完成部署,灵活性强,交付周期短,同时可以避开传统系统问题,帮助西部快速迭代转型,实现业务流程自动化。
深挖高价值场景,提升客户体验,减少业务风险
西部证券打造数字员工平台,对已上线的数字员工流程进行统一管控。数字员工平台展示西部证券上线的数字员工流程,从运行时长、运行次数、流程数量、FTE等方向对数字员工流程进行描述。数字员工平台支持一站式运维,通过可视化运营大屏,对当日运行流程进行实时监控,反馈流程运行情况,支持人工介入处理异常流程。
案例主要经济成效和社会成效分析
数字员工已为我司财富管理部、计划财务部、投行业务条线、网络金融部等多部门提供自动化流程机器人,大幅提升了业务处理速度,将业务处理差错率降低为0,释放员工低端数据操作,让员工更加专注于高价值的工作。数字员工与证券业务深度结合,深挖高价值场景,提升客户体验,减少业务风险。
截至2022年底,数字员工项目累计上线49条流程,覆盖9个业务部门,机器人总运行时长2974小时,约节省375人天工时,多数流程运行成功率保持在80%以上,日常流程运行稳定。串联29个系统,解决部分数据孤岛问题。RPA结合Al、数据中台将能力以组合拳方式在风险合规管控、提升客户体验、基层减负增效、助力拓客营销上赋能业务。
西部证券通过举办数字员工创新大赛,唤醒员工数字化意识,激发创新潜能,推动数字科技成为我司发展新动力。
西部证券数字化转型办公室的“智能合同审查”项目在“第二届中国RPA+AI开发者大赛”中荣获金奖。“智能合同审查”项目借助RPA、Al及管理平台等技术,打通西部内部系统上下游,实现合同审核自动化,合同数据可视化、可量化、可追溯,提高业务合同审核效率。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。