至顶网CIO与CTO频道 03月13日 北京消息:全球领先的信息技术研究和顾问公司Gartner最近的一项调查显示,在1500多位受访者中,只有12%认为他们所在的企业已做好应对新冠病毒影响的充分准备,而26%的人认为该病毒几乎没有或完全没有影响他们所在的企业。此外,在3月6日开展的一场以业务连续性为主题的在线研讨会中,Gartner专家也询问了参会人员应对新冠病毒疫情的准备情况如何。
Gartner风险与审计业务研究副总裁Matt Shinkman表示:“这一信心的缺乏表明,许多企业机构的风险管理方式已经过时且无效。相比准备不足的同行,做好最充分准备的企业机构可以最大程度地减少新冠病毒造成的业务中断,从而获得众多业务优势。”
大多数受访者(56%)认为自己做好了一定的准备,11%的受访者表示他们相对准备不足或根本没有准备。只有2%的受访者认为他们的业务可以照常运营,但强调了许多业务可能会受到疫情影响。24%的受访者认为几乎不会受到影响。大多数受访者预测业务将继续放缓(57%)、受到严重限制(16%)或完全中断(1%)。
引起这一问题的原因之一是管理诸如新冠病毒等新兴风险时的不明确。企业机构通常会制定应对大多数风险的政策,但等到他们启动这些政策时往往为时已晚。这是因为在风险完全呈现之前,没有人会去承担或认真对待风险。启动执行行动的风险阈值通常过高,以至于无法作出有效的响应。
Shinkman先生指出:“董事会成员在对待新兴风险时,往往认为新兴风险会自动消失,因此他们只将注意力集中在当前最重要的事情上。由于有时新兴风险的确会自动消失,因此这种策略还会在好光景时得到加强。但如果新兴风险没有自动消失,则必然会出现问题。”
具备企业风险管理(ERM)能力的企业机构更有可能预测即将到来的风险,然后更迅速、有效地缓解这些新兴风险所产生的影响。Gartner认为最佳实践是专注于影响,而不是特定场景。
Shinkman先生认为:“几乎不可能准确预测特定场景是否或如何发生,甚至是何时发生。这引起了面对新兴风险时的不明确和不作为。专注于潜在的影响以及如何减轻这些影响才是更有效的做法。”
疫情的发生是证明这种方法效果的最佳示例——那些等到新兴风险已经影响到运营和/或多名员工之后才行动的企业,非常可能会发现自己落后于其他准备更充分的企业并且只能将业务拱手相让。
企业应思考哪些可能发生的过渡事件预示着疫情等类似新兴风险的影响力或概率正在急剧增加,以做好更充分的准备。可使用企业风险管理方法确认此类特定事件并为此做好准备,同时建立监控这些事件的机制。准备最充分的企业定能更好地避免重大业务中断。
在企业机构中负责新冠病毒危机响应的人员应制定应对特定影响的计划。例如如果有员工生病,公司该怎么办?是否要求所有员工自我隔离?居家办公程序是否成熟到可以提供支持,还是说不得不停工?是否需要通知供应商或客户?在发生预期损失时,是否具备支持运营的财务能力?
使用基于影响的方法可以明确何时触发响应计划并开始缓解对企业机构造成的特定影响。此外,如果有应对特定影响的响应计划,那么与员工的沟通就会变得更简单,从而让所有员工都参与风险管理。在此类瞬息万变的情况下,承担风险的人越多,企业机构做出及时响应的可能性就越大。
Shinkman先生认为:“应避免构建详尽的‘假设’情景,而是应该专注于已知的事情。许多企业机构可能已经针对新冠病毒引起的各类业务中断制定了应对计划。风险管理人员的任务是确保有正确的计划以及在适当的时候使用这些计划。”
好文章,需要你的鼓励
Arelion升级其斯堪的纳维亚网络,连接超大规模数据中心以支持该地区蓬勃发展的AI市场。该网络基于1.6Tbps波长和可扩展400G相干可插拔光学技术,在奥斯陆、斯德哥尔摩和哥本哈根之间构建AI"超级高速公路"。升级将为企业客户提供增强的全球互联网骨干网接入和多样化连接服务。预计2025年第二季度末完成,并计划在2025年剩余时间及2026年继续投资。
这项由香港科技大学领导的研究首次建立了大语言模型安全守护栏的系统性评估框架。研究团队对13种主流守护栏进行了全面测试,提出了六维分类体系和SEU三维评估标准,揭示了不同守护栏在安全性、效率和实用性方面的权衡关系,为AI安全防护技术的选择和部署提供了科学指导。
CloudBees首席执行官Anuj Kapur表示,AI可能重新测试DevOps的基础假设,但警告不要为追求效率而创建黑盒代码。他指出,一些因担心错失机会而匆忙采用AI生成代码的客户正开始放缓步伐,变得更加谨慎。Kapur认为,将整代软件外包给提示工程将创建非人类生成的黑盒代码,虽然效率高但质量、测试覆盖率和漏洞问题值得担忧。
南加州大学研究团队开发出一种名为PILS的新技术,能够通过分析AI模型输出时的概率信息来破解隐藏的系统指令。这种方法通过观察AI生成文本过程中多个步骤的"思考轨迹",将隐藏提示的恢复成功率提高了2-3.5倍。研究发现AI模型的概率输出存在于低维空间中,可以用数学方法进行压缩和逆向分析。这项发现对AI安全具有重要影响,揭示了当前依赖隐藏指令的安全机制可能存在漏洞,为AI安全防护提出了新挑战。