人工智能 关键字列表
信任、技术、人为因素:网络韧性的基石

信任、技术、人为因素:网络韧性的基石

在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。

人类主导权应引导AI发展而非存在性恐惧

人类主导权应引导AI发展而非存在性恐惧

自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。

Google在Gemini中推出AI图像检测工具:能识别AI生成内容吗?

Google在Gemini中推出AI图像检测工具:能识别AI生成内容吗?

谷歌在Gemini应用中推出新的检测功能,帮助用户识别图像是否由AI生成。该功能可检测谷歌AI模型自动嵌入的SynthID水印,虽然人眼不可见但能被专用工具识别。用户只需将图像上传至Gemini并询问是否为AI生成,系统就会分析并提示。即使没有发现SynthID水印,Gemini也会尝试分析图像中的AI痕迹。不过该功能仅限检测谷歌AI模型生成的内容。

Meta申请电力交易许可以加速AI数据中心电力供应

Meta申请电力交易许可以加速AI数据中心电力供应

为加速新电厂建设以满足数据中心能源需求,Meta正寻求进入电力交易业务。据彭博社报道,Meta和微软均已申请联邦电力交易许可,苹果已获得此类批准。Meta表示,这将允许其对新电厂进行长期购电承诺,同时通过在批发电力市场转售部分电力来降低风险。Meta全球负责人表示,电厂开发商希望看到电力消费者的实际承诺。为支持Meta路易斯安那州数据中心园区运营,至少需要建设三座新的燃气发电厂。

研究员破解AI聊天机器人训练数据来源之谜

研究员破解AI聊天机器人训练数据来源之谜

研究人员开发出更有效的方法从大型语言模型中提取记忆内容,可帮助解决监管担忧和版权纠纷。该技术名为RECAP,通过智能反馈循环迭代提取特定内容,包含突破模型拒绝回应的组件。在基准测试中,RECAP在文本提取方面比现有最佳方法提升78%,能从《哈利波特》首部小说中提取约3000段文字。这项研究有助于提高AI模型透明度。

杜克大学惊人发现:AI大脑推理过程竟如河流般流动!

杜克大学惊人发现:AI大脑推理过程竟如河流般流动!

杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。

MIT最新研究:AI时代的"算力鸿沟"正在分化学术界,少数顶尖机构垄断了基础模型研究

MIT最新研究:AI时代的"算力鸿沟"正在分化学术界,少数顶尖机构垄断了基础模型研究

MIT等多所顶尖学府联合研究发现,AI基础模型研究中存在严重的"算力鸿沟"现象。通过分析6517篇论文和调研229位研究者,发现计算资源分配极不均衡,谷歌、微软等科技巨头发表论文数量甚至超过多数顶尖大学。研究显示只有16.8%的论文报告GPU使用情况,透明度严重不足。这种资源集中化趋势可能限制学术创新多样性,影响AI研究的健康发展,需要通过共享计算平台、技术优化和政策支持等多方面努力来缓解。

清华大学&字节跳动联合发布OmniVerifier:让AI学会"火眼金睛"检查自己的视觉输出

清华大学&字节跳动联合发布OmniVerifier:让AI学会"火眼金睛"检查自己的视觉输出

清华大学和字节跳动Seed联合发布突破性研究OmniVerifier,首次提出"生成式通用验证器"概念,解决AI无法准确检查自身视觉输出的根本问题。该系统具备"火眼金睛"般的能力,能发现并纠正AI在图像生成和视觉分析中的错误,在多项测试中表现超越GPT-4o,为构建更可靠的下一代AI系统奠定基础。

游戏角色"去平庸化":让AI游戏伴侣更像真人、更会办事——泰国朱拉隆功大学等机构联合研究成果

游戏角色"去平庸化":让AI游戏伴侣更像真人、更会办事——泰国朱拉隆功大学等机构联合研究成果

泰国朱拉隆功大学等机构联合研究了游戏AI角色的"去弗兰德化"问题,通过创新的提示技术和模型训练方法,解决了AI角色过度表演与任务执行能力不足的矛盾。研究在国际挑战赛中取得第2名成绩,为创造既有个性又实用的AI伙伴提供了可行方案,对游戏行业和AI应用具有重要意义。

Salesforce AI团队:最强AI也会"糊里糊涂"?首个AI数学推理检验基准Hard2Verify挑战极限

Salesforce AI团队:最强AI也会"糊里糊涂"?首个AI数学推理检验基准Hard2Verify挑战极限

Salesforce AI团队发布Hard2Verify基准,这是首个专门评估AI数学推理验证器能力的测试基准。通过500小时人工标注,基准包含80道顶级数学竞赛题目和1860个详细标注步骤。测试29个验证器后发现,即使最强的验证器在识别前沿AI数学推理错误时表现也不理想,揭示了当前AI验证能力的重大缺陷。

Brave浏览器AI助手Leo引入可信执行环境增强隐私保护

Brave浏览器AI助手Leo引入可信执行环境增强隐私保护

Brave Software开始为其AI助手Leo提供可信执行环境(TEE)技术,以增强云端AI服务的隐私保护。目前该功能仅在测试版本中支持DeepSeek V3.1模型。TEE技术能为数据处理提供可验证的机密性和完整性保障,解决传统云端AI模型处理用户请求时数据暴露的隐私风险。该技术采用Intel TDX和Nvidia TEE方案,让用户能够验证服务提供商的隐私承诺,确保AI响应来自声明的模型,未来将扩展支持更多AI模型。

OpenAI与富士康合作开发AI数据中心套件

OpenAI与富士康合作开发AI数据中心套件

OpenAI宣布与富士康合作,专注于下一代AI基础设施硬件的设计和美国制造准备工作。双方将结合OpenAI对AI模型需求的洞察和富士康的制造专业知识,共同设计多代数据中心硬件,强化美国AI供应链,并在美国本土构建关键AI数据中心组件。此次合作旨在满足先进AI模型对专用物理基础设施的需求,加速先进AI系统的部署。

Oracle巨额AI投资引发华尔街风险担忧

Oracle巨额AI投资引发华尔街风险担忧

甲骨文为发展AI云基础设施大幅增加资本支出,2026财年预计达350亿美元。公司已发行180亿美元债券,未来四年可能还需借贷1000亿美元建设数据中心。尽管与OpenAI签署3000亿美元云计算合同,但投资者对其信用违约风险担忧加剧,相关保险产品价格三个月内翻倍。甲骨文净债务已超过其EBITDA两倍,市场对AI投资回报的质疑日益增长。

从生成式到智能体:2026年AI自主性的新时代

从生成式到智能体:2026年AI自主性的新时代

生成式AI曾以前所未有的速度和规模生成文本、图像和代码震惊世界,但2026年将迎来更强大的智能体AI。智能体AI不仅能生成内容,还能独立行动、推理、协作和执行任务,从工具转变为协作伙伴。这一转变将影响网络安全、医疗、金融等多个领域,并加速机器人技术、神经形态计算和边缘计算的融合发展。

微软开源经典游戏Zork源代码,MIT许可证下重现文字冒险传奇

微软开源经典游戏Zork源代码,MIT许可证下重现文字冒险传奇

微软开发总监Scott Hanselman在Ignite大会上宣布开源Zork I-III游戏源代码,采用MIT许可证发布。Zork是游戏史上的里程碑作品,这款文字冒险游戏允许玩家使用自然语言与游戏互动。该游戏最初为PDP-10计算机开发,后被分为三部分以适配当时的个人电脑。微软此举旨在为学生、教师和开发者提供历史重要代码,供学习研究使用。

浙江大学团队破解AI图像生成大难题:让多个对象在同一张图里"听话站队"

浙江大学团队破解AI图像生成大难题:让多个对象在同一张图里"听话站队"

浙江大学研究团队开发了ContextGen,这是首个能够同时精确控制多个对象位置和外观的AI图像生成系统。该系统通过情境布局锚定和身份一致性注意力两大创新机制,解决了传统AI在多对象场景中位置控制不准确和身份保持困难的问题,并创建了业界首个10万样本的专业训练数据集,在多项测试中超越现有技术。

上海交通大学推出SR-Scientist:让AI像科学家一样自主发现数学规律

上海交通大学推出SR-Scientist:让AI像科学家一样自主发现数学规律

上海交通大学研究团队开发的SR-Scientist系统实现了人工智能在科学发现领域的重大突破。该系统能够像真正的科学家一样,从实验数据中自主发现数学公式,通过工具驱动的数据分析和长期优化机制,在四个科学领域的测试中比现有方法提高了6%-35%的精确度。这标志着AI从被动工具转变为主动科学发现者的重要里程碑。

清华大学破解AI生成图片质量难题:为什么机器画的画总有那么点"不对劲"?

清华大学破解AI生成图片质量难题:为什么机器画的画总有那么点"不对劲"?

清华大学与快手团队合作发现AI图像生成中的"噪声漂移"问题,即AI在生成过程中系统性地误判噪声水平,导致图像质量下降。他们提出的噪声感知指导(NAG)技术能实时纠正这种偏差,在标准测试中将图像质量指标FID从8.61大幅降低至2.26,且可无缝集成到现有模型中。

谷歌的"谨慎权重衰减":让AI训练更聪明的一行代码改动

谷歌的"谨慎权重衰减":让AI训练更聪明的一行代码改动

德克萨斯大学奥斯汀分校和谷歌联合提出谨慎权重衰减(CWD),这是一种仅需修改一行代码的优化器改进方法。该技术通过条件性地应用权重衰减,只在参数更新方向与参数符号一致时施加约束,避免了传统方法的盲目约束。实验表明,CWD在3.38亿到20亿参数的语言模型和ImageNet图像分类任务上均能带来性能提升,且无需调整超参数。

滑铁卢大学破解AI付费难题:LOCKET让大模型"按需付费"成为现实

滑铁卢大学破解AI付费难题:LOCKET让大模型"按需付费"成为现实

滑铁卢大学研究团队开发出LOCKET技术,解决AI服务"按需付费"的商业化难题。该技术通过创新的"适配器融合"方式替代易泄露的密码验证,实现100%有效拒绝未授权功能,同时保持已授权功能性能损失不超过7%。面对恶意攻击的成功率控制在5%以下,为AI服务提供商提供了可行的精细化定价解决方案。