光大证券股份有限公司(以下简称“光大证券”)成立于1996年,总部位于上海,是中国证监会批准的首批三家创新试点证券公司之一,也是世界500强企业--中国光大集团股份公司的核心金融服务平台之一。2022年,作为“创新试点”之一的光大证券进一步描定”建设中国
一流投资银行”的战略目标,以“价值领先、特色鲜明”为两大战略愿景,坚定不移地推进 “市场化、专业化、集约化”改革,努力实现高质量发展。
为实现战略目标,光大证券股份有限公司携手用友以新理念、新技术为基石,构建业务流、核算流、管控流资金流、实物流,多流合一的新一代平台。以财务中台+智慧网报/资产管理,逐步实现人、财、物、税四大后台集约化,打造一体化业财平台在全集团范围内流程化、标准化组织管理及服务功能支撑,提升公司整体后台业务服务效率。其中,以网报和资产为基础建立报销数智化、资产智能化,以资产为以财务及事项中台为枢纽,以财务共享提升效率降低成本;以事项中台提升精细化,为集团化提供战略支撑。
平台通过数据整合实现全集团财务支出事项全流程线上贯通、全链条合规管控和全要素信息共享全面提升财务管理的集团化、自动化、标准化、规范化、集约化、透明化、智能化水平;通过不同场景设置,将事前预算管控、报销信息填写、发票OCR/查验、无纸化影像审批、事项化审批、自动化记账等业财一体;针对不同费用类型,灵活设置报销场景,尽可能实现自动化、智能化、减少员工手工工作量;通过构建业务流、核算流、管控流、资金流、实物流,“多流合一"的新一代平台;通过整合和信息互联互通,实现全集团财务支出事项全流程线上贯通,全链条合规管控和全要素信息共享,全面提升财务管理的集团化、自动化、标准化、规范化、集约化、透明化、智能化水平,光大证券集约化财务共享中心的建设创造了广泛的企业价值和社会效益,是实现大型企业商业创新、数值化转型的典型示范。
在企业价值方面:
其一,统一标准化数据:科目(境内2400条、境外3900条)、供应商(1800条)、员工(6500条)、银行账户(3100条)、开户行(2万3千条左右)以及自定义基础数据的标准化数据管理;
其二,统一报销类型:从原有56种报销单据集约化至24条报销类型,统一报销入口及标准SOP说明;
其三,统一审批流程:从原来分散分机构化管理统一为集团化管理,集中管控让事项审批标准化运作,从原有315条个性化流程集约化至48条审批流程;
其四,统一业务流程:结合集约化总体目标,精简并优化员工出差申请与报销流程,固定资产、在建工程以及在建工程转固、预转固的一体化业财流程以及预算编制流程等;
其五,提高员工报销效率:从原有老系统报销4-7天左右,通过不见单审批缩短审批周期至2-3天左右即可报销并支付完成;
切实减轻基层员工在财务报销管理等方面的负担,不断提升财务服务能力,提高管理效率,降低财务成本。
在社会价值方面:
其一,无纸化应用:领导、员工实现“不见单"审批,纸张节约每月平均约0.8吨左右打印耗材,直接节约耗损成本约15万元;
其二,员工报销到支付成功,平均每日节省3小时/人次审批工作时长,同时员工向导式报销,切实减轻基层员工在财务报销管理等方面的负担,不断提升财务服务能力;
其三,提高管理效率,降低财务成本。统一标准化数据:科目(境内2400条、境外 3900条)、供应商(1800条)、员工(6500条)、银行账户(3100条)、开户行(2万3千条左右)以及自定义基础数据的标准化数据管理;
其四,员工报销效率:从原有老系统报销4-7天左右,通过不见单审批缩短审批周期至2-3天左右即可报销并支付完成。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。