至顶网CIO与应用频道 09月22日 北京消息:在近日举办的HUAWEI CONNECT 2017大会,华为云展示BMS裸金属服务,全面开启裸金属云时代,为传统企业和金融证券客户上云提供快速通道,企业用户与华为互利互赢协同发展。
业界最强最快裸金属安全上云解决方案
华为云BMS裸金属服务首席架构师任茂盛发布BMS裸金属快速上云解决方案,为传统企业客户提供快速、便捷、完整的上云通道。
首席架构师任茂盛强调说:“裸金属服务能够保证客户物理机的原生应用无需改造平滑上云,租户之间通过VPC网络隔离,物理机之间网络最大支持100Gbps IB;同时,华为自研的智能网卡能够支持客户按需挂载云硬盘,最高可达320T的容量,一键式申请,为客户提供类似虚拟机一样的便捷发放和管理。”
图1、首席架构师任茂盛发表华为BMS裸金属服务快速上云主题演讲
企业的核心业务在上云过程中,对性能、稳定性和安全性有诸多考虑,企业原有的核心应用需适配虚拟机进行调整,企业核心数据库业务对高性能要求给虚拟机带来很大挑战。
华为BMS裸金属服务为客户提供物理服务器的极致性能,同时拥有与虚拟机发放一样的便捷体验,实现企业业务无需变更,一键式迁移快速上云。
传统物理服务器受限于本地磁盘容量,使用起来不够灵活。华为云BMS裸金属服务实现云硬盘自动化挂载,并支持共享卷能力。在客户业务部署上云时,可以按需申请高达320T容量的云硬盘,同时提供超高IO和普通IO等多种选择,满足客户的所有可能需求。
强调的是,共享卷能力可以支持企业的核心数据库系统集群部署,华为云BMS裸金属服务目前也是业界唯一能够提供自动化挂载共享卷能力的云服务。
华为云BMS裸金属服务采用华为自研的智能网卡技术,用户只需在华为云BMS裸金属服务的Console页面上选择合适的配置,不到5分钟就可以获得所需的裸金属服务器,极大提高使用效率,是部署高性能计算HPC云上超算的核心武器。
金融证券行业对数据安全监管要求非常高,华为云BMS裸金属服务结合DEC专属云服务,为用户开辟一块专属云空间,提供独享计算资源、独享存储资源,通过物理隔离和VPC网络隔离等多种手段实现高隔离性专属云方案,满足客户对敏感数据的保护,并能够做到可监管、可追溯。
图2、华为云BMS裸金属服务+DEC专属云服务解决方案架构
华为云BMS裸金属服务是华为业界领先软硬结合能力的集中体现,由具有20多年硬件经验的团队和云系统软件团队共同保障,运维团队7X24小时响应客户需求,后端技术专家团队在最短时间内快速响应客户问题,一如既往的秉承公司成就客户的核心价值观。
秉承一贯承诺:“靠技术和服务变现,不靠用户数据变现”和“上不做应用,下不碰数据”,华为云BMS裸金属服务提供企业级的安全能力,做让每一位用户放心的高质量产品。
快速发放、超大共享卷、安全专属,三大企业级特性深入人心
本次大会从实际应用场景、关键技术和解决方案等多个维度向客户展示华为云BMS裸金属服务的高性能和企业级特性,客户高度认可华为云BMS裸金属服务提供的高可用需求下企业关键应用快速上云方案、安全强健的敏感数据防护方案和高性能低时延的计算方案。
图3、华为云BMS裸金属服务三大业务场景
在大会期间华为云BMS裸金属服务展台观众如潮,高级产品经理白鹏倾听来自全球各地客户的声音,解答实际部署过程中遇到的各种问题,与客户一起探讨解决方案,得到广泛好评。
了解更多华为云BMS裸金属服务信息,请参阅:http://www.hwclouds.com/product/bms.html
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。