ChatGPT的热烈炒作、广泛使用和快速蔓延提升了最终用户对LLM和GenAI的认识,引发了一波商业实验和AI初创企业的浪潮。2023年4月的Gartner网络研讨会发现,381名中国参会人员有70%已经或计划启动GenAI项目,其中6%已在生产环境部署了GenAI,26%在试点GenAI,38%处于规划阶段。
CIO及其安全团队需要为GenAI的影响做好准备,在以下四个方面采取措施:
1. 为构建GenAI应用提供安全保护:AI应用攻击面不断扩大,产生了新的潜在风险,需要对现有应用安全实践进行调整。
2. 管理和监控使用GenAI的方式:各企业机构正在探索如何使用嵌入现有应用的GenAI助手,这些应用都有独特的安全要求,是传统安全控制措施无法满足的。
3. 利用生成式网络安全AI进行防御:有效抓住GenAI机遇,从而改善安全和风险管理、 优化资源、抵御新兴攻击技术,甚至降低成本。Gartner将生成式网络安全AI定义为 GenAI技术在网络安全中的应用。
4. 为受到GenAI攻击做好准备:GenAI工具和技术不断发展,各企业机构必须适应恶意行为者不断发展的技术或新的攻击向量。
图1对此进行了说明
CIO及其安全团队不应只是试图跟上新技术发展的步伐,也需要规划和建立一致而有效的AI安全治理计划,以应对GenAI采用激增的局面和各类新兴场景。
AI安全治理项目应整体覆盖组织架构、技术和政策。其早期任务之一就是制定所有构建或部署AI的团队必须遵循的标准,包括安全AI开发、AI数据安全和AI安全应急响应标准。中国CIO和安全团队应与利益相关者和企业机构领导者合作,制定五个阶段的AI安全治理计划(见表1)。
表1: AI安全治理项目的五个阶段及主要行动
好文章,需要你的鼓励
随着大语言模型在人工智能时代展现强大力量,可穿戴设备成为收集人体数据的重要载体。通过实时监测血压、心率、血糖等生命体征,结合AI边缘计算能力,医疗正向个性化转型。基因治疗、数字孪生技术让每个人都能拥有专属的医疗数字化身,实现从"报销型医疗"向"创新循证医疗"的转变,为疾病预防和健康管理带来革命性突破。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。
在巴黎举办的欧洲开放基础设施峰会期间,专门用一整天时间讨论VMware迁移问题。博通收购VMware后许可证价格上涨,导致客户运营成本大幅增加。开源开发者展示了将VMware虚拟机迁移到开源替代方案的产品。Forrester分析师指出VMware客户对此感到信任破裂。OpenStack等开源解决方案虽然复杂度较高,但提供了健康的开源生态系统替代方案。
中国人民大学研究团队开发了Tool-Light框架,通过信息熵理论解决AI工具使用中的过度调用、调用不足和过度思考问题。该框架采用熵引导采样和两阶段自演化训练,让AI学会合理使用外部工具。在10个推理任务测试中,Tool-Light显著提升了AI的效率和准确性,为AI工具集成推理提供了新的解决方案。