随着全球局势向着不可预测的方向一路狂奔,为了应对种种变化,政府机构也开始转向新的数据驱动形式。在即将于2022年4月21日召开的AI in Government大会上,来自美国各州的三位首席数据官将分享他们关于如何使用数据驱动决策制定和机构变革的见解。
弗吉尼亚州政府临时首席数据官Marcus Thornton就是其中一位新晋数据管理者,他不仅探讨了自己对于数据驱动机构以满足事务需求的见解,还强调称不同机构乃至国家组织之间都应建立起数据共享通道。在本次采访中,Marcus主要就自己关于AI、数据以及自动化影响的看法做出解读。
Marcus Thornton,弗吉尼亚州临时CDO
记者:您在自己的岗位上,引入了哪些创新形式的数据与AI应用方案?
Marcus Thornton: COVID-19疫情的突然爆发给我们带来诸多挑战,也要求弗吉尼亚州数据治理与分析办公室充分从数据中提取出可操作情报。目前,我们已经在部分自动化体系中利用AI技术来编译涉及疫苗接种的统计数据。此外,我们还使用AI帮助预测出那些疫苗接种率较低、容易出现疫情反弹的区域。
记者:那您是如何利用自动化推进这段AI探索之旅的?
Marcus Thornton: 自动化让我们真正得以在内部流程中提升执行效率,快速处理不同来源、关联不同系统的往来数据。依靠这些流程,我们提高了数据集的收集速度与信息准确性。另外,自动化也让我们有更多时间专注于探索真实数据集中的研究模式与深层含义。
记者:万事总有开端,那您是怎么为自动化和认知技术项目选择起点的?
Marcus Thornton: 虽然选项看似纷繁多样,但我们一般会从当前效率较低、或者重复性较强的领域开始,确定该如何更好地执行流程、工作或者程序。我们也与其他面临各类挑战、身负沉重压力的国家级机构开展合作。我们的核心诉求是努力转化成能够以有效方式交付准确数据的服务机构,而自动化报告乃至自动化流程是达成这一转化目标的前提条件。
记者:在数据与AI应用方面,公共部门拥有哪些独特的机遇?
Marcus Thornton: 我认为公共部门的宝贵机遇,在于可以直接接纳AI与机器学习技术、将其作为从数据中提取可操作情报的重要手段,进而做出合理决策、让所有下游业务由此获益。另外,公共部门还可以引入数据共享和数据治理的概念,并把这些概念落到实处。
记者:您能分享几个成功的AI应用案例吗?
Marcus Thornton: 在COVID-19疫苗接种过程中,弗吉尼亚州数据治理与分析办公室整合了来自各类REDCap调查、Google表格、Salesforce系统及其他来源的数据,并把这些作为建立疫苗接种预登记表和仪表板的基准。为了每天整理出新的表格并编译支持仪表板所需的数据,我们还开发出AI机器人。这些仪表板现在已经可以显示各类疫苗接种登记,并按地区甚至是街区划分疫苗接种统计数据。
记者:那您能不能谈谈公共部门在探索AI和ML方面遇到的现实挑战?
Marcus Thornton: 我们遇到的大部分挑战都跟组织机构有关,他们不愿意改变自己所熟知的现有流程。他们当然知道新方案能够改善流程,但只要老办法还能用、还有效,他们就不想离开舒适区。当然,技术挑战也客观存在。公共部门内不同机构和组织所拥有的技术人才储备区别很大,而这种储备和技术熟悉度也直接决定着他们在多大程度上愿意实施AI与机器学习。
记者:分析、自动化和AI技术是怎样在您的部门里协同运作的?
Marcus Thornton: 在弗吉尼亚州数据治理与分析办公室,我们的主要关注点在于数据和智能。我们开发出一套生态系统,用于从多个来源引入各类数据集。我们一直在与众多不同机构和组织开展合作,所以纳入的每个数据集都有相应的分析与管理层。在分析和管理阶段结束之后,我们再利用AI和自动化方案进行数据移动、数据管理以及涉及数据集的报告或可视化处理。
记者:那您要怎么解决AI应用带来的隐私、信任与安全问题?
Marcus Thornton: 我们其实更关注全程保持数据,特别是一切个人身份信息(PII)数据。我们的措施是根据数据敏感性对数据进行分类,AI技术则帮助我们自动识别出哪些属于PII内容。正是凭借这种方式、再辅以其他手段,我们才能帮助合作伙伴坚定信心,让他们意识到我们一直高度关注数据保护,并在政策和程序中持续监控特定数据集的具体访问权。
记者:您在培养AI技术人才方面做出过哪些努力?
Marcus Thornton: 弗吉尼亚州在AI人才培养上制定了颇具雄心的目标,也建立起不少相关机构和倡议。我们的目标是不断展示并强调AI和ML技术增强我们和公众提供可操作情报的能力。只要能够讲好AI与ML的成功故事,我们相信人们会慢慢接受这种技术侧重的转变、意识到掌握AI技术的重要意义。
记者:展望未来几年,您对哪些AI技术最为期待?
Marcus Thornton: 结合自身我们实际,我们每天需要处理的PDF文档太多了,所以真希望能有高级AI功能帮我们快速阅读和解释不同的文本文档。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。