洛杉矶大火一年后,亚马逊Ring安全服务推出Fire Watch功能以降低野火风险。该功能集成在Ring应用的邻里版块中,计划今春全美推广。系统依托非营利组织Watch Duty的野火预警,当检测到野火时会通知附近用户,符合条件的户外摄像头将启用AI图像识别监测火情。Ring还推出AI异常事件预警和主动警告功能。但隐私问题仍存争议,多个州因隐私法限制相关AI功能使用。
意大利特伦托大学联合芬兰奥卢大学开发的"反向个性化"技术,通过巧妙的AI逆向操作实现了高质量的人脸匿名化。该技术使用负向引导机制,让AI在保留表情、姿势等关键信息的同时有效去除身份特征,并支持用户精确控制需要保留或修改的面部属性。相比传统方法,该技术无需专门训练即可处理任意人物照片,在身份去除效果、属性保留质量和图像质量方面都实现了显著提升,为医疗、教育、社交媒体等领域的隐私保护提供了新的解决方案。
苹果在iOS 14.5中推出的应用跟踪透明度功能要求开发者获得用户许可才能共享数据。用户可选择"允许"或"要求应用不跟踪"。选择后者会阻止应用访问IDFA标识符,但开发者仍可通过IP地址等其他方式跟踪用户。该功能推出后,可跟踪用户比例从73%降至18%,迫使广告商转向设备指纹识别等替代方案。
浙江大学等院校联合开发Fed-SE框架,解决AI智能体在隐私约束下的协作学习难题。该框架通过本地轨迹筛选和全局低秩聚合,让分散的AI系统在不共享原始数据的情况下协同进化,在五个异构环境中平均成功率达66%,比传统方法提升18%。
美国多州和部分国家要求特定应用进行年龄验证,澳大利亚已禁止16岁以下用户使用社交媒体。新提案《应用商店问责法案》建议由苹果和谷歌负责统一验证用户年龄,而非各开发者单独验证。这将提升用户体验,用户只需向苹果或谷歌验证一次身份。凭借苹果在隐私保护方面的优势,该方案可扩展至Safari浏览器,为需要年龄验证的网站提供确认信息,而无需透露用户个人数据。
Firefox分支浏览器Waterfox明确表示将不会集成大语言模型功能,此举针对Mozilla将Firefox打造为AI浏览器的计划。Waterfox首席开发者表示至少在可预见的未来不会添加AI功能。作为Firefox的衍生版本,Waterfox基于ESR版本开发,更新频率较低,关闭了所有Mozilla遥测功能,并内置垂直标签栏。随着Mozilla力推AI功能引发用户不满,Waterfox有望吸引更多寻求传统浏览体验的用户。
AI聊天机器人虽然便捷,但存在诸多安全隐患。用户与聊天机器人分享的个人信息不受隐私保护,对话记录可能被搜索引擎索引。专家建议:将聊天机器人视为公共环境,避免透露敏感个人信息;不要过度分享心理状态和健康问题;关闭记忆功能并定期导出数据;对AI生成内容保持怀疑并核实信息;警惕冒充客服的钓鱼诈骗;启用双因素认证;重要问题应向真人倾诉而非AI;避免过度依赖AI以防思维能力退化。
谷歌搜索高管表示,公司在AI领域的最大机遇在于更好地了解用户并提供个性化回应。通过整合Gmail等服务的个人数据,AI能提供更主观和个性化的建议。然而,随着AI深度整合用户邮件、文档、照片、位置历史等个人信息,有用助手与侵入性监控之间的界限日益模糊。谷歌承诺会明确标示个性化回应,但数据隐私问题仍引发关注。
这项由中科院等机构联合完成的研究提出了FedRE框架,通过生物学启发的"纠缠表征"技术解决联邦学习中的模型异构问题。该方法将不同类别的数据表征随机混合成单一表征上传,既保护了数据隐私又保证了模型性能,在多个数据集上表现优异,为跨机构AI协作提供了新的技术路径。
Kagi公司发布Orion浏览器1.0版本,这是一款专为苹果平台设计的全新浏览器。该浏览器主打极速浏览体验和用户隐私保护,完全免费使用并附赠200次Kagi搜索。Orion还提供月费5美元的付费订阅服务,解锁更多高级功能。未来计划包括更深度的自定义选项和性能优化。
谷歌发布私密AI计算服务,旨在将Android设备端私密计算核心的信任承诺扩展到云端数据中心。该服务类似苹果的私有云计算,通过可信执行环境等技术对用户数据进行加密隔离处理。谷歌声称该系统在推理请求时在受保护环境中处理数据,会话结束后即丢弃,无管理员访问权限。不过安全专家指出,相关技术仍存在被攻破的可能性。
尽管苹果在AI竞赛中看似落后,但其私有云计算基础设施展现了技术优势。当行业为追赶大语言模型而降低隐私标准时,苹果坚持原则,开发出保护用户数据隐私的技术方案。谷歌最新宣布的类似实施方案验证了苹果技术路线的正确性,这可能推动其他AI实验室采用相同做法,为用户隐私带来重大胜利。
这项由卡内基梅隆大学和东北大学联合开展的研究通过分析1322篇AI隐私论文,发现学术界92%的注意力都集中在训练数据泄露这一相对较小的威胁上,而聊天记录泄露、AI助手背叛、隐私推断和信息聚合等更严重的隐私威胁却被严重忽视,呼吁学术界和产业界重新审视AI隐私保护的优先级和策略。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
随着Chrome和Safari主导浏览器市场,众多替代浏览器正在挑战这些行业巨头。本文梳理了当前顶级替代浏览器,包括AI驱动的浏览器如Perplexity的Comet、Arc公司的Dia、Opera的Neon和OpenAI的Atlas;注重隐私的浏览器如Brave、DuckDuckGo、Ladybird和Vivaldi;以及专注特定领域的浏览器如Opera Air和SigmaOS。这些浏览器通过AI集成、隐私保护、定制化和专注用户福祉等特色功能,为用户提供了多样化的浏览体验选择。
AI聊天机器人如ChatGPT、Gemini和Grok日益融入日常生活,目前最受欢迎的用途是心理治疗。人们常与它们讨论敏感话题,误以为对话会保持私密。然而,聊天机器人不受保密规则约束。近期发生多起数据泄露事件,包括ChatGPT分享功能导致对话被搜索引擎索引,Grok多达30万次聊天记录被公开。企业中"影子AI"使用也带来风险。专家建议避免分享个人敏感信息,企业应制定相关政策。
韩国成均馆大学研究团队开发了首个机器遗忘可视化评估系统Unlearning Comparator,解决了AI"选择性失忆"技术缺乏标准化评估的问题。系统通过直观界面帮助研究人员深入比较不同遗忘方法,并基于分析洞察开发出性能优异的引导遗忘新方法,为构建更负责任的AI系统提供重要工具支持。
山东大学等高校联合研究揭示智能手机AI助手隐私保护能力严重不足。研究团队构建了首个隐私意识评估基准SAPA-Bench,包含7138个真实场景。测试结果显示,即使最佳模型的隐私风险感知能力也仅达67%,多数开源模型仅30%左右。研究发现闭源模型表现优于开源模型,明确提示可显著提升隐私感知能力。
Anthropic宣布将开始使用用户与Claude的聊天记录来训练其AI模型。新用户在注册时可选择是否参与"帮助改进Claude"功能,现有用户将收到相关通知。该功能将于9月28日默认启用,用户需在此前选择退出。启用后,数据保留期将从30天延长至5年。企业版、政府版和教育版用户不受影响。用户可随时在隐私设置中关闭此功能。
斯坦福大学研究团队通过分析超过50000张公开照片,发现商业人脸识别系统能够从普通照片中推断出年龄、性别、种族、职业等大量个人隐私信息,准确率高达95%。研究揭示了不同人群面临的差异化隐私风险,并提出了技术保护、法律规范、个人防护等多层面的应对策略。这项发表于《自然·机器智能》的研究为数字时代的隐私保护提供了重要参考。