企业希望其IoT系统具有超快的响应时间,同时还能享受云的成本和效率优势。来看边缘计算如何将这两种技术结合在一起。 当物联网系统运行在公有云上时,传感器会频繁的将数据发送到存在于该公有云中的数据库。
如果你觉得这听起来有问题,是的,的确有问题。 数据从传感器或设备传输到云所花费的时间通常太长,无法满足物联网(IoT)系统的延迟要求,很多这些IoT系统都依赖于立即响应。
为了解决这个问题,一些设备制造商避免使用公有云,但这意味着IoT系统无法利用云计算的成本效益和资源效率。 边缘计算提供了一种将每一块IoT数据传输回云进行集中处理的替代方案。在边缘计算模型中,数据存储和处理能力被推送到网络的“边缘”,通常驻留在收集数据的设备或传感器内。
然而,该数据和处理通常依旧与公有云存储系统耦合,作为单个的虚拟单元。这有助于消除延迟并增加IoT系统的响应次数。
边缘计算的产生
边缘计算的想法并不新鲜。我们多年来一直在用它解决网络或机器延迟的问题。具体来说,一些边缘计算概念已经出现。一个是cloudlet,来自卡内基梅隆大学的新架构元素,它融合了移动和云计算。
还有一个雾计算,是由思科推出的非集中式计算架构。 问题是IoT应用需要几乎立即对传感器或设备产生的数据做出响应;这允许这些应用程序执行诸如关闭即将过热的冶炼机这样的任务。在数百种用例中,响应时间绝对是IoT系统的关键组成部分,这就是为什么延迟这个概念是如此重要。可靠性和数据处理也至关重要,包括不依赖于与远程云应用程序通信处理数据的能力。
‘边缘’与云在何处碰撞
因此,边缘计算——特别是其与云计算的息息相关性 - 正在成为一种最佳实践。它将云应用架构师从必须把所有数据都发送回公有云这一点上解放出来。然而,边缘计算的核心思想是边缘和公有云在物理上分散,但在虚拟上耦合。 边缘组件在四处移动的时候,数据将自动与云端的集中式数据存储同步。
虽然那些数据可以临时存储在边缘处并在那里处理,但存储在云中的数据会成为真实数据的单一来源。 随着IoT系统和服务不断寻求通往公有云的途径,对于边缘计算的需求也变得越来越重要。虽然边缘计算可能带来新的挑战,尤其是围绕管理和安全方面的挑战,但边缘计算能够满足一种需要,即企业部署IoT系统需要云计算的高效性。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。