Firefox分支浏览器Waterfox明确表示将不会集成大语言模型功能,此举针对Mozilla将Firefox打造为AI浏览器的计划。Waterfox首席开发者表示至少在可预见的未来不会添加AI功能。作为Firefox的衍生版本,Waterfox基于ESR版本开发,更新频率较低,关闭了所有Mozilla遥测功能,并内置垂直标签栏。随着Mozilla力推AI功能引发用户不满,Waterfox有望吸引更多寻求传统浏览体验的用户。
AI聊天机器人虽然便捷,但存在诸多安全隐患。用户与聊天机器人分享的个人信息不受隐私保护,对话记录可能被搜索引擎索引。专家建议:将聊天机器人视为公共环境,避免透露敏感个人信息;不要过度分享心理状态和健康问题;关闭记忆功能并定期导出数据;对AI生成内容保持怀疑并核实信息;警惕冒充客服的钓鱼诈骗;启用双因素认证;重要问题应向真人倾诉而非AI;避免过度依赖AI以防思维能力退化。
谷歌搜索高管表示,公司在AI领域的最大机遇在于更好地了解用户并提供个性化回应。通过整合Gmail等服务的个人数据,AI能提供更主观和个性化的建议。然而,随着AI深度整合用户邮件、文档、照片、位置历史等个人信息,有用助手与侵入性监控之间的界限日益模糊。谷歌承诺会明确标示个性化回应,但数据隐私问题仍引发关注。
这项由中科院等机构联合完成的研究提出了FedRE框架,通过生物学启发的"纠缠表征"技术解决联邦学习中的模型异构问题。该方法将不同类别的数据表征随机混合成单一表征上传,既保护了数据隐私又保证了模型性能,在多个数据集上表现优异,为跨机构AI协作提供了新的技术路径。
Kagi公司发布Orion浏览器1.0版本,这是一款专为苹果平台设计的全新浏览器。该浏览器主打极速浏览体验和用户隐私保护,完全免费使用并附赠200次Kagi搜索。Orion还提供月费5美元的付费订阅服务,解锁更多高级功能。未来计划包括更深度的自定义选项和性能优化。
谷歌发布私密AI计算服务,旨在将Android设备端私密计算核心的信任承诺扩展到云端数据中心。该服务类似苹果的私有云计算,通过可信执行环境等技术对用户数据进行加密隔离处理。谷歌声称该系统在推理请求时在受保护环境中处理数据,会话结束后即丢弃,无管理员访问权限。不过安全专家指出,相关技术仍存在被攻破的可能性。
尽管苹果在AI竞赛中看似落后,但其私有云计算基础设施展现了技术优势。当行业为追赶大语言模型而降低隐私标准时,苹果坚持原则,开发出保护用户数据隐私的技术方案。谷歌最新宣布的类似实施方案验证了苹果技术路线的正确性,这可能推动其他AI实验室采用相同做法,为用户隐私带来重大胜利。
这项由卡内基梅隆大学和东北大学联合开展的研究通过分析1322篇AI隐私论文,发现学术界92%的注意力都集中在训练数据泄露这一相对较小的威胁上,而聊天记录泄露、AI助手背叛、隐私推断和信息聚合等更严重的隐私威胁却被严重忽视,呼吁学术界和产业界重新审视AI隐私保护的优先级和策略。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
随着Chrome和Safari主导浏览器市场,众多替代浏览器正在挑战这些行业巨头。本文梳理了当前顶级替代浏览器,包括AI驱动的浏览器如Perplexity的Comet、Arc公司的Dia、Opera的Neon和OpenAI的Atlas;注重隐私的浏览器如Brave、DuckDuckGo、Ladybird和Vivaldi;以及专注特定领域的浏览器如Opera Air和SigmaOS。这些浏览器通过AI集成、隐私保护、定制化和专注用户福祉等特色功能,为用户提供了多样化的浏览体验选择。
AI聊天机器人如ChatGPT、Gemini和Grok日益融入日常生活,目前最受欢迎的用途是心理治疗。人们常与它们讨论敏感话题,误以为对话会保持私密。然而,聊天机器人不受保密规则约束。近期发生多起数据泄露事件,包括ChatGPT分享功能导致对话被搜索引擎索引,Grok多达30万次聊天记录被公开。企业中"影子AI"使用也带来风险。专家建议避免分享个人敏感信息,企业应制定相关政策。
韩国成均馆大学研究团队开发了首个机器遗忘可视化评估系统Unlearning Comparator,解决了AI"选择性失忆"技术缺乏标准化评估的问题。系统通过直观界面帮助研究人员深入比较不同遗忘方法,并基于分析洞察开发出性能优异的引导遗忘新方法,为构建更负责任的AI系统提供重要工具支持。
山东大学等高校联合研究揭示智能手机AI助手隐私保护能力严重不足。研究团队构建了首个隐私意识评估基准SAPA-Bench,包含7138个真实场景。测试结果显示,即使最佳模型的隐私风险感知能力也仅达67%,多数开源模型仅30%左右。研究发现闭源模型表现优于开源模型,明确提示可显著提升隐私感知能力。
Anthropic宣布将开始使用用户与Claude的聊天记录来训练其AI模型。新用户在注册时可选择是否参与"帮助改进Claude"功能,现有用户将收到相关通知。该功能将于9月28日默认启用,用户需在此前选择退出。启用后,数据保留期将从30天延长至5年。企业版、政府版和教育版用户不受影响。用户可随时在隐私设置中关闭此功能。
斯坦福大学研究团队通过分析超过50000张公开照片,发现商业人脸识别系统能够从普通照片中推断出年龄、性别、种族、职业等大量个人隐私信息,准确率高达95%。研究揭示了不同人群面临的差异化隐私风险,并提出了技术保护、法律规范、个人防护等多层面的应对策略。这项发表于《自然·机器智能》的研究为数字时代的隐私保护提供了重要参考。
英国杜伦大学等研究团队首次系统性证明,人工智能可通过键盘敲击声音以99%准确率破解用户输入内容。该研究揭示了声学侧信道攻击的现实威胁,攻击者可利用智能手机、会议软件等常见设备实施远程窃听,传统安全防护对此几乎无效。研究提出了包括环境噪音掩盖、虚拟键盘使用、设备权限管理等多层防护策略,为数字时代的隐私保护提供了重要警示和解决方案。
德州大学研究团队开发的PRvL系统成功将大语言模型应用于个人信息保护,实现了99.4%的识别准确率和极低的隐私泄露风险。该系统支持多种模型架构和训练策略,具备跨语言处理能力,完全开源可本地部署,为医疗、法律、金融等敏感领域提供了实用的隐私保护解决方案。
Instagram推出类似Snap Map的地图功能,允许美国用户与他人分享最近活跃位置并发现基于位置的内容。该功能默认关闭位置分享,需要用户主动开启并二次确认。地图会显示带有位置标签的Stories和Reels内容,用户可选择与好友、密友或特定用户分享位置。与Snap Map不同,Instagram地图仅在打开应用时更新位置,不提供实时定位。用户可通过设置页面管理位置分享偏好。
中科大研究团队从认知科学获得灵感,提出IAU机器遗忘方法,通过"反向记忆"让AI高效忘记特定数据。该方法避免了传统影响函数的复杂矩阵计算,将遗忘时间从数千秒降至十几秒,同时保持模型性能。实验验证显示其在多种数据集和模型上均表现优异,为隐私保护和数据安全提供了实用解决方案。
美国密苏里州默西医院团队开发了一个能在浏览器中运行的医疗AI模型,专门用于将医患对话转录生成标准化病历。该模型基于Llama 3.2 1B,通过1500个内分泌科病例训练,在保证隐私安全的前提下,显著提升了病历生成的准确性和完整性,严重医疗幻觉减少58.8%,为医疗AI的本地化部署提供了可行方案。