企业和组织可以从云计算中受益,但许多公司并不希望面对公共云的成本,性能和治理问题,并且认为构建自己的私有云的复杂性和运营开销并没有那么困难。
如今,一些云计算供应商正在使用人工智能(AI)来简化私有云的部署和管理,使得云计算可以自主驱动(即自我安装,自我修复和自我管理)。在文中,将介绍自主驱动云的要求以及如何实现。
自主驱动云需求
就像这个领域的任何其他技术一样,人们需要几个系统一起工作,处理自我监控,愈合,学习以及创建自我优化模型。
这里列出了需要在自主驱动云中使用的技术:
•自动安装和配置:
第一步是安装过程,不需要太多的人为干预。云计算的构建块是服务器,存储和网络。使用超融合系统,将服务器和存储设备组合在一起,需要一个软件定义的网络,以尽量减少对物理网络的变化的依赖。
所以,第一个要求是采用服务器+存储构建块,其中预先安装了所有软件,并将其拷贝到操作系统映像中。用户只需要映像一些服务器并加载它们。一旦完成,云计算应该自动出现,而无需管理员知道有关各种服务和持久存储的任何内容。图像软件应该将服务器,存储和网络资源集中在一起,以创建高度弹性的云。
•与其他云计算和内部系统集成:
云计算不应该孤立工作,所以人们应该能够快速将其与现有的虚拟化基础架构和其他公共云连接起来。更好的是添加现有的存储系统,并通过开放(即RESTful)API将其作为云计算的一部分。这是一个可选的步骤,但如果要利用现有的存储和服务器投资,这一点非常重要。同样,大多数用户也希望与AD/LDAP集成,并拥有单一的用户和认证来源。
•以自助服务方式部署应用程序:
任何云计算的目标是为用户提供能够以自助服务方式被各种团队使用的IaaS和PaaS平台。例如,开发人员可以将其用于应用程序开发,持续集成/持续开发(CI/CD);支持团队可以使用它来提供用户环境的副本来解决任何支持问题;销售可以带来快速的PoC试用,最终IT可以提升各种应用的分期或生产部署。这些步骤需要完全自动化,以便人们可以重复它们,而不用花太多时间。任何云计算解决方案都应提供具有预构建应用模板的自助服务界面,以便快速部署。
•实时监控事件,统计,记录,审核:
由于云计算是共享环境,所以需要能够实时监控各种事件,统计信息和仪表板。需要知道应用程序的状态以及其他用户执行的操作。应该能够获取日志并审核所有用户的操作。例如,如果一个服务在晚上10点以后关闭,需要知道用户或脚本是否错误地关闭提供该服务的虚拟机。
•自我监测和自我修复:
任何像云计算一样复杂的系统都需要监视所有关键服务,并帮助监控工作负载。如果任何硬件组件或软件服务失败,系统应该检测并修复这种情况。然后,它可以提醒管理员哪个组件失败。如果这是硬件组件,如服务器,硬盘,SSD或NIC,则管理员可以采取纠正措施来恢复系统的容量。这是自驱动云计算的最低要求。
•长期决策机器学习:
由于自愈层负责短期决策,人们需要另一层自动化功能,可以在更长的时间内观察云计算和应用程序,以帮助优化云,提高效率并为未来做好计划。自主驱动的云平台收集遥测或操作数据,并利用机器学习来指导数据科学家如何开发现在为此行为建模的算法。这些算法可帮助用户做出决策。
该层应该观察预测能力建模和订购新服务器的用法。它还应该根据CPU,内存和I/O比例来确定要添加什么样的服务器。例如,如果应用程序的CPU密集度较高,那么应该对具有更多内核和更少存储空间的服务器进行排序。另一个领域是根据利用率帮助优化虚拟机的大小。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。