企业希望其IoT系统具有超快的响应时间,同时还能享受云的成本和效率优势。来看边缘计算如何将这两种技术结合在一起。 当物联网系统运行在公有云上时,传感器会频繁的将数据发送到存在于该公有云中的数据库。
如果你觉得这听起来有问题,是的,的确有问题。 数据从传感器或设备传输到云所花费的时间通常太长,无法满足物联网(IoT)系统的延迟要求,很多这些IoT系统都依赖于立即响应。
为了解决这个问题,一些设备制造商避免使用公有云,但这意味着IoT系统无法利用云计算的成本效益和资源效率。 边缘计算提供了一种将每一块IoT数据传输回云进行集中处理的替代方案。在边缘计算模型中,数据存储和处理能力被推送到网络的“边缘”,通常驻留在收集数据的设备或传感器内。
然而,该数据和处理通常依旧与公有云存储系统耦合,作为单个的虚拟单元。这有助于消除延迟并增加IoT系统的响应次数。
边缘计算的产生
边缘计算的想法并不新鲜。我们多年来一直在用它解决网络或机器延迟的问题。具体来说,一些边缘计算概念已经出现。一个是cloudlet,来自卡内基梅隆大学的新架构元素,它融合了移动和云计算。
还有一个雾计算,是由思科推出的非集中式计算架构。 问题是IoT应用需要几乎立即对传感器或设备产生的数据做出响应;这允许这些应用程序执行诸如关闭即将过热的冶炼机这样的任务。在数百种用例中,响应时间绝对是IoT系统的关键组成部分,这就是为什么延迟这个概念是如此重要。可靠性和数据处理也至关重要,包括不依赖于与远程云应用程序通信处理数据的能力。
‘边缘’与云在何处碰撞
因此,边缘计算——特别是其与云计算的息息相关性 - 正在成为一种最佳实践。它将云应用架构师从必须把所有数据都发送回公有云这一点上解放出来。然而,边缘计算的核心思想是边缘和公有云在物理上分散,但在虚拟上耦合。 边缘组件在四处移动的时候,数据将自动与云端的集中式数据存储同步。
虽然那些数据可以临时存储在边缘处并在那里处理,但存储在云中的数据会成为真实数据的单一来源。 随着IoT系统和服务不断寻求通往公有云的途径,对于边缘计算的需求也变得越来越重要。虽然边缘计算可能带来新的挑战,尤其是围绕管理和安全方面的挑战,但边缘计算能够满足一种需要,即企业部署IoT系统需要云计算的高效性。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。