一个专家组在Cambridge网络峰会上讨论网络世界隐私的优点以及Google 新的智能手机和Yahoo扫描电邮。
亚利桑那州选民登记数据库不像是俄罗斯人明显的目标。但是在八月,FBI揭秘俄罗斯黑客装扮成亚利桑那州选举工作人员,并在该州安全系统上戳了个洞。
黑客干的很狡猾。他们没有用网络钓鱼,而是用了偷来的账户名称和密码,这样一封包含恶意软件的电邮“看起来就像是员工发的”,亚利桑那州政府秘书长Michele Reagan在在马萨诸塞州Cambridge召开的Cambridge网络峰会上告诉听众。“那是一封Word文档,这屋里的任何一个人都会打开看的。”
在像亚利桑那州选民登记数据库泄漏的案例里,很容易分辨好人和坏人。但是当侵入者安全时,会发生什么?这个问题使美国公司与华盛顿方面进入复杂的协商:如何平衡客户隐私和公共安全?
雅虎遵照美国政府的要求实时搜索用户收到的邮件,和大事件——一名美国国家安全局(NSA)承包商因为窃取机密情报而被捕的大背景下,由CNBC联合主办的网络峰会的专家组、Aspen研究所和MIT的机器科学与人工智能实验室(CSAIL),抛出安全与隐私的辩论。(更多这方面的发展动态在下面)
专家组强调的安全与隐私事件是关于另一位技术巨头——苹果公司,应对政府访问个人数据的命令。今年早些时候,苹果公司回避了FBI想访问一位造成14人死亡的加州San Bernardino恐怖袭击的射手使用的iPhone的要求。那时,苹果CEO Tim Cook说,要求去这么做的新软件会是“能打开亿万锁的万能钥匙”。
“苹果公司为其用户提供了强大的加密技术,它被司法部称为书里的每个名字”,电子前线基金会的执行理事Cindy Cohn说道,该基金会是数字权限的倡导者。“他们就像街上的罪犯一样被对待。”当FBI自己找到侵入设备的方式时,苹果公司拒绝要求变得无意义了。
复杂的、普遍的和持久的
美国政府想要技术公司在他们的技术上开辟后门,早已不是什么秘密。(如果每家公司都是技术公司,没有业务会拒绝入境。)专家小组成员Glenn Gerstell是国家安全局的法律顾问,他列出了理由。他把黑客,网络犯罪和恐怖主义描述成“复杂的,普遍的和持久的”威胁——这是他预期情报部门会处理数十年的。ISIS端到端加密使用,是一种保证信息不会在传输过程中被篡改的方法,这也让情报搜集变得困难。“这绝对是个问题”,他说。
美国行为的威胁也是如此。当俄罗斯黑客侵入选民登记数据库时,情报界打响了信息战争,至少理论上讲来,威胁到了国家的民主,正如另一位专家指出的。“他们没有预料到俄罗斯有做这事的想象力、热情、或者进取心”,国土安全部的前政务助理秘书Stewart Baker如此说他的前雇主。
但是勉强同意美国政府添加后门的请求会无限弱化系统,根据MIT网络政策研究主动权的创立主管和CSAIL首席研究科学家Daniel Weitzner的说法。“我们知道的是在过去,为了打破你追求的平衡而努力建立系统的后门……那些缺陷。足够讽刺的是,Edward Snowden泄露美国安全局大量数据收集程序,有了积极的结果,Weitzner说。
根据他们的技术路线,Google、苹果和其他公司正计划更强的加密和更强硬的安全措施,“为了展示他们可以抵挡攻击,即便是来自国家安全局”,他说。
另外,他说,“好人比坏人多很多。仅仅为了抓住坏人而将好人至于危险中,更像是错误的等式” Gerstell打断他:“我不同意该前提:我认为我们已经处于危险之中。”
好文章,需要你的鼓励
随着大语言模型在人工智能时代展现强大力量,可穿戴设备成为收集人体数据的重要载体。通过实时监测血压、心率、血糖等生命体征,结合AI边缘计算能力,医疗正向个性化转型。基因治疗、数字孪生技术让每个人都能拥有专属的医疗数字化身,实现从"报销型医疗"向"创新循证医疗"的转变,为疾病预防和健康管理带来革命性突破。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
在巴黎举办的欧洲开放基础设施峰会期间,专门用一整天时间讨论VMware迁移问题。博通收购VMware后许可证价格上涨,导致客户运营成本大幅增加。开源开发者展示了将VMware虚拟机迁移到开源替代方案的产品。Forrester分析师指出VMware客户对此感到信任破裂。OpenStack等开源解决方案虽然复杂度较高,但提供了健康的开源生态系统替代方案。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。