随着国内大财富管理时代的到来,传统的“卖方投顾”模式无法满足财富管理业务的发展需求,国元证券积极顺应行业转型发展趋势,用科技创新引领业务发展,在财富业务的核心链条中大量运用人工智能技术,用投研驱动资产配置,用资产配置驱动财富业务发展,打造出全新的财富业务科技发展模式,创造了全新的数字化应用场景。
具体建设内容如下:

第一,基金优选模块。公募基金的数量已接近2万只,每一只基金都具有不同的风险收益特征,业绩也具有很大的随机性,实现基金产品的分类和优选是资产配置的前提。项目在集合客户投资需求和基金的风险收益特征基础上,对全部基金进行了全新的分类(近50种),每一个分类都是一种细分资产,具备独立的风险收益特征。以此为基础,对不同分类建立不同的量化优选模型,开发了一套在宏观周期下遴选因子、模型的产品筛选方案,解决基金业绩随机性大的间题。最终,每一个细分的资产都匹配一定量的具有预期超额的基金列表,最终形成一套“资产-产品”的对应矩阵。
第二,资产预测模块。建立了统一的宏观六因子框架,在此框架下建立了多套大类资产轮动模型,完成前瞻性资产配置逻辑层面实现。子资产层面,建立了多套多周期轮动策略和择时策略,因子层面包括但不限于宏观经济、中观风格、微观行业、事件、资金流和各类风险因子等,组建统一的胜率、赔率、趋势度和拥挤度模型。基于Al算法训练适合当下市场环境的最佳因子,通过强化学习实现各个策略结果的融合,最终形成各类资产的多周期观点,以此实现前瞻性资产配置微调指引。
第三,客户投资框架学习模块。结合传统的客户基础属性,更多地关注客户的投资框架与投资能力,通过客户完整的历史交易记录,学习客户投资过程中在风格、行业上的偏好和投资能力,特别是券商的股票投资类客户群体,新增的投资类属性超百个,可精准描述客户在投资习惯与投资能力,为个性化资产配置提供了关键信息。

第四,提出“理性人”概念,开发资产配置策略专家系统和组合最优化算法,根据前述三个部分的结果,对单客户生产专有策略,形成资产配置或者组合配置,最终达到千人千面的资产配置方案。匹配基金组合策略画像与客户画像是本项目的关键技术,通过深度学习与强化学习匹配算法,将基金产品端丰富的标签画像与客户画像相结合,进行基于深度强化学习进行动态匹配。
在场景应用方面,本研究搭建了全新的投研框架,产品覆盖面广,可以灵活增减产品类型、因子和策略模型,使投资者享受最先进和实用的投研平台;在客户服务方面,课题全面升级算法,资产分类扩展数倍,为资产配置提供丰富工具,尽可能实现客户资产组成最优夏普,满足客户各类投资偏好;在技术创新方面,基金细分类Al聚类与排序算法支持基金细分分类下排序筛选,借助客户投资偏好标签分类,实现风险控制下的最优策略模型,尽可能提升投资者受益。在成果方面,课题能够有效帮助客户提升平均2%-10%个点的年化预期收益,显著降低回撤幅度2-3倍,夏普比率得到显著性提升。
该项目未来将转化为公司的TAMP平台,成为国内首个商用TAMP平台,为财富业务的发展提供核心竞争力。通过平台的智能化服务,线上向客户提供标准化投资策略服务,线下向一线人工提供个性化策略工具,向基金投顾业务提供最优的基金组合策略,同时做到研投能力输出,向具有财富业务的金融机构提供资产配置服务,将实现线下投顾服务效能提升6-8倍,客户投资收益实质性提升占比客户达75%;不仅为行业,也为整个社会的居民财富保值增值目标提供更加灵活、高效、且更具有实际意义的体系化解决方案。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。