斯坦福大学最新年度AI报告显示,AI专业人士与普通公众对该技术的态度差异日益扩大。报告指出,公众对AI的焦虑情绪持续上升,尤其担忧其对就业、医疗和经济的影响。数据显示,仅10%的美国人对AI持乐观态度,而56%的AI专家认为AI将在未来20年带来积极影响。此外,美国民众对政府监管AI的信任度仅为31%,在全球各国中最低。
谷歌已将Gemini AI整合进几乎所有应用,包括Gmail、Chrome、Docs等。对于不需要AI辅助的用户,本文提供详细关闭步骤。个人账户需分两步禁用智能功能,但需注意:完全关闭后将同时失去拼写纠错、邮件优先级排序等基础功能。企业账户用户则无法自行彻底关闭Gemini,只能由管理员操作。谷歌的设计策略明显在阻止用户禁用AI集成功能。
据《金融时报》报道,Meta CEO马克·扎克伯格正在开发一个AI克隆版本,用于与员工互动并提供反馈。该AI化身基于扎克伯格的形象、声音、举止、语气及公开发言进行训练,旨在让员工通过与其互动感受到与创始人的连接。若此实验成功,Meta或将向创作者开放类似的AI化身功能。据悉,扎克伯格本人参与了AI化身的训练工作,并每周投入5至10小时参与Meta其他AI项目的编程与技术评审。
Anthropic近期将Claude Code提示缓存的TTL(存活时间)从一小时缩短至五分钟,尽管官方声称此举不会增加成本,但大量用户反映配额消耗明显加快。有用户指出,五分钟TTL对长会话、高上下文的使用场景极为不利。Anthropic员工回应称,该变更对单次调用场景实际更经济,但承认百万token上下文窗口导致缓存未命中时成本显著上升,目前正在研究将默认上下文窗口调整为40万token。
微软最新Windows Insider版本的记事本中,Copilot按钮已悄然消失。但AI功能并未移除,而是以"写作工具"为名、配以钢笔图标继续保留,用户可选择关闭。此举更多反映出Copilot品牌形象受损,而非微软放弃在产品线中推广AI的战略。微软Windows负责人此前承诺减少不必要的Copilot入口,此次调整正是兑现承诺。其他搭载Copilot的应用或将陆续跟进。
Meta正在开发一个基于创始人马克·扎克伯格的AI数字分身,供公司近8万名员工使用。该AI克隆体将模拟扎克伯格的说话方式、语气及公司战略理念,旨在增强员工与高管之间的连接感。与此同时,Meta还为扎克伯格配备了"CEO智能助手",帮助其更高效获取内部信息。此举是Meta全面押注AI战略的一部分,目标是降本增效并最终实现"超级智能"。
中国AI公司Z.ai推出开源编程模型GLM-5.1,专为智能体软件工程设计。该模型可在数百次迭代中保持稳定性能,在SWE-Bench Pro基准测试中得分58.4,超越GLM-5及OpenAI、Anthropic、Google旗下多款模型。GLM-5.1采用MIT许可证发布,支持本地部署,在数据治理和成本控制方面具有吸引力。分析师指出,该模型适用于大规模代码重构、系统迁移等长周期任务,但公共基准测试与真实企业环境仍存在差距。
据报道,Meta正在开发一个基于扎克伯格本人的AI角色,通过训练其言谈举止、语气风格及公开声明来模拟这位CEO。该AI角色还将学习扎克伯格对公司近期战略的看法,以便在其本人无暇或不愿回应时,代替他向员工提供建议和反馈。此前已有消息称扎克伯格正在打造一个协助处理日常工作的AI助理,此次AI分身是相关布局的延续。
随着AI生成内容泛滥,越来越难以区分人类写作与机器生成文本。作为教授,作者总结出多种识别AI文章的方法:AI文本通常语法完美却缺乏个性,频繁重复提示词中的关键词,并惯用"In conclusion"等套路表达。文章建议教师采取多项应对措施:提前用ChatGPT测试自己的作业题目、学期初收集学生真实写作样本、对可疑作业要求AI改写以验证其来源,从而有效应对学术诚信挑战。
AI在法律界的应用正引发严重问题。律师借助AI撰写法律文书时,AI频繁"幻觉"出虚假案例,且这些案例看起来极为真实。自2023年纽约南区首次曝光以来,此类事件不断蔓延。据HEC巴黎商学院统计,全球已记录约1200起AI幻觉相关案例,仅美国就有800起,且数量仍在上升。尽管法院已开出六位数罚款,问题依然加剧,表明AI幻觉问题远未解决。
英国癌症研究所与都柏林RCSI医学院的研究人员开发了一种AI方法,用于预测晚期结肠癌患者对贝伐珠单抗的治疗反应。该药物已于去年12月获NHS批准,但仅对部分患者有效,且存在血栓等严重副作用。研究团队利用AI工具PhenMap整合肿瘤基因数据,成功识别出对该药反应不佳的高风险患者群体,有望避免数千名患者承受无效治疗带来的副作用。研究人员计划扩大样本量以进一步验证该方法。
OpenAI宣布暂停其Stargate项目在英国诺森伯兰郡的数据中心建设计划。该项目曾于去年9月高调宣布,被视为英国AI产业发展的重要推动力。此次暂停的主要原因包括高昂的电力成本及监管不确定性——英国政府上月刚发布AI与版权相关咨询文件,尚无明确结论。与此同时,全球数据中心普遍面临能源成本压力。OpenAI表示,待投资条件成熟后将重启该项目。
盖洛普最新报告显示,Z世代对AI的态度正发生显著转变。调查覆盖近1600名14至29岁美国年轻人,结果显示对AI感到希望和兴奋的比例分别从去年的27%和36%降至18%和22%,而感到愤怒的比例则从22%升至31%。近半数Z世代认为AI在职场中的风险大于收益,八成人担忧AI会影响未来的学习能力。尽管如此,超过半数的Z世代仍每周使用AI,使用率较去年小幅上升。
英特尔与谷歌宣布签署多年合作协议,谷歌将继续在下一代AI与云基础设施中部署基于至强处理器的平台,包括即将推出的Xeon CPU及双方联合定制的基础设施处理单元(IPU)。谷歌云已在多类工作负载实例中采用英特尔处理器,涵盖大规模AI训练到低延迟推理等场景。此外,英特尔还加入了由Anthropic主导的Project Glasswing联盟,该联盟汇聚45余家机构,旨在利用前沿AI模型识别并修复关键软件漏洞。
一项新研究测试了谷歌、OpenAI、Anthropic等顶级AI模型在虚拟重现2023-24英超赛季中的投注表现。结果显示,所有前沿模型均亏损,其中xAI的Grok 4.20彻底破产。表现最佳的Claude Opus 4.6平均亏损11%。研究指出,现有AI基准测试多在静态环境下进行,难以反映真实世界的复杂性,AI在长周期动态任务中仍系统性弱于人类。
一名来自南美的技术支持工程师Octavio,因公司未了解其国籍的签证要求,在前往墨西哥出差时遭当地执法部门拘留。公司紧急聘请律师将其保释,但他仍被拘押数小时后遭驱逐出境。回到美国后,公司代表已备好签证和机票,让他再次前往墨西哥完成任务。经此事件,Octavio随即申请加入美国国籍。
OpenAI首席执行官Sam Altman于周五发文,回应其旧金山住宅遭燃烧弹袭击事件及《纽约客》一篇引发广泛关注的深度报道。该报道由两位记者采访逾百名知情人士后撰写,对Altman的诚信问题提出质疑。Altman在回应中承认自己存在"回避冲突"的缺陷,并对曾经伤害过的人表示歉意。他同时呼吁各方降低言辞对抗烈度,倡导以开放共享的方式推进AI技术发展,反对任何个人或机构试图垄断通用人工智能的控制权。
一位读者提问:她习惯对Alexa说"请"和"谢谢",但不确定这是否有意义。对此,各方观点不一:有人认为不应将机器拟人化;有人指出礼貌用语会消耗额外算力和能源,造成浪费;也有研究表明,对AI礼貌会让其回应更友好。更多人认为,对AI保持礼貌,本质上是在维护自身的情商与品格修养,习惯性的礼貌行为有助于改善人与人之间的真实互动。
作者体验了两个月的AI日记应用Mindsera,这款拥有8万用户的应用会对日记内容给出实时反馈和情感分析。起初作者深感被理解和陪伴,日记量翻倍;但心理学家对应用将情绪量化打分提出警告,认为可能导致用户"为算法表演"而非真实表达。最终,作者发现自己开始将AI的耐心与真实人际关系对比,产生不切实际的期待。两个月、123篇日记后,账户降级免费版,AI瞬间"失忆",令人猝不及防。
作者订阅Claude后,用七周时间、337次提交,借助AI"氛围编程"构建了一款名为RSScal的RSS订阅Web应用。文章分享了这段体验:AI代码质量已从笑话级跃升至"够用"水平,显著降低了软件开发门槛;但AI既能力出众又漏洞百出,需要开发者具备一定基础才能有效引导。作者认为,AI不会消灭对工程卓越性的需求,但会加速基础应用的商品化,并对自由职业模板开发者构成冲击。