证券行业IT投入连续两年增幅超过20%,多家券商每年投入超过10亿元。在金融科技投入成本有限的情况下,如何保持数字化转型发展不掉队,是大多数中小券商无法回避的问题。同时,证券行业数字化转型复合型人才的供给不足,造成数据技术应用难以保持同步,实际业务与数据技术应用覆盖范围之间长期存在偏差。
基于行业现状,南京证券制定以聚焦匹配、业务融合为原则,"一个战略,三大体系,五项能力”的发展路径,建设以客户服务为核心,提升业务能力与工作效率、降低综合风险与运营成本为目标的公司数字化发展战略,自主研发打造的数智化客户营销服务运营展业平台(以下简称"展业平台”),平台依托云原生架构进行一体化敏捷开发,提升交付速度,降低试错成本,高效响应需求,提高用户体验,全方位赋能员工展业和南京证券财富管理转型。

图:数字化转型蓝图
技术架构方面,展业平台依托技术中台,实现应用的快速迭代开发、监控、治理、渠道接入与访问控制,架构出“大中台,小应用“模式,根据不同业务场景实现业务应用,下沉技术组件和公共模块,做到灵活支持业务的创新迭代,快速响应用户需求。同时,基于国产
大数据技术建设大数据平台,结合Hive, Kafka, HBase, Flink等技术组件,以及元数据管
理、数据质量管理、血缘分析等数据管控工具,实现数据的集中存储与计算,消除了业务和系统之间的分散隔阂,大幅提升了数据质量,实现了高可靠、高可用,并在技术中台和数据中台的基础上,建设数智化客户营销服务运营展业平台,搭建了客户中心、画像中心、产品中心、运营中心、内容中心等业务组件。
业务模式方面,展业平台目前用户规模1000余人,覆盖证券行业相关的多业务条线,比如经纪业务、零售业务、机构业务、信用业务等。平台通过客户经理、投资顾问等一线员工服务了南京证券的大晕客户,提升南京证券金融服务的能力水平以及客户服务体验和满意度。作为南京证券数字化转型的重要组成部分,对内提升运营效率,对外提升客户体验,赋能一线分支机构,扩大服务半径、提升服务效能,实现队伍综合业绩与业务收入的突破性增长。
展业平台成为南京证券经纪业务数字化转型的配套基础,实现了对客户全生命周期的数
细化管理,以客户为中心,利用数据挖掘和算法优化等方法,建立客户全生命周期运营体系,实现超百万客户的标签画像体系精准分析与精细化管理。
为客户经理在获客、服务、提醒、转化、营销、挽留、关怀等提供一揽子策略支持。平台融合汇聚各业务系统,打通系统数据隔闵,实现业务的便捷管理与精准统计。展业平台的 “经管佣金设置和信用佣金复核”功能在原有基础上提升信息处理时效40%,整体工作效率提升30%, “客户资料预审”为公司节约后期管理维护费用约200万元,实现了降本增效。
展业平台的建设,使得公司在企业级应用APP相关平台的细分市场上份额能够大幅提升,从而对接更多交易合作伙伴,日新增运营超过原有承载能力的多个产品,处理数据量远超同类平台。同时通过该项目的自主研发,进一步提升了相关技术人员的基础研究能力,促进产研技术的进步,有效带来丰富的研发项目管理经验以及研发知识的累积,为突破技术瓶颈以及未来的研发活动的开展夯实牢固的基础。
展业平台的建设面向大型证券企业数字化转型升级的重大战略需求,针对满足严格监管环境下,研发企业级应用APP提高企业开发和建设能力,在追求不同场景多标准适用的同时,实现数据处理的伸缩扩展稳定性达到最高水平,为金融行业客户运营提供了成功的实践经验和经典案例,推动了细分领域内的技术革新与多样化。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。