AI开发平台哪家强?弗若斯特沙利文(Frost & Sullivan, 简称沙利文)和头豹研究院一起给出了答案。
亚马逊云科技在双方联合发布的《2023 年中国AI开发平台市场报告》(以下简称《报告》)中被评为2023年AI开发平台Frost Radar中增长指数排名第一、2023年AI开发平台Frost Radar中创新指数排名第一。
亚马逊云科技已经连续第三年拿下该报告的“榜首”。沙利文(Frost & Sullivan)资深总监及头豹研究院副总裁李庆表示,亚马逊云科技是中国AI开发平台领导者,不仅为用户提供AI开发全生命周期管理能力,还推出完整的生成式AI技术栈帮助用户简化生成式AI应用的开发,同时确保企业的安全隐私。
目前亚马逊云科技已经为生成式AI创新搭建起了三层技术栈,底层:提供用于基础模型训练和推理的基础设施,包括自研芯片和AMD、Intel和Nvidia的芯片,以及相关的服务,包括Amazon SageMaker等;中间层工具层:提供使用基础模型进行构建的工具,Amazon Bedrock是利用大模型构建和扩展生成式人工智能应用的最简单方法;顶层应用层:提供利用基础模型构建的应用程序,包括Amazon Q和Amazon CodeWhisperer等
“改变世界的人工智能大部分将建立在亚马逊云科技上。”亚马逊首席执行官安迪·贾西(Andy Jassy)在最近发布的股东信中说,我们在亚马逊云科技中构建的不仅仅是一个引人注目的应用程序或基础模型。这些服务在堆栈的所有三个层次上构成了一套基础服务,从而实现下一个划时代的人工智能阶段普惠化,并将为内外部构建者赋能,以转变我们所知道的几乎每一个客户体验,或是创造全新的客户体验。

六大指标均获第一
亚马逊云科技在《报告》中的数据标注、模型开发功能、模型管理能力、数据预处理、算法管理能力、模型部署能力六大关键指标均获得最高分。
亚马逊云科技在增长指数的数据标注模块、模型开发功能、模型管理能力三个指标项得分最高 :
数据标注模块
Amazon SageMaker Ground Truth服务支持高度可定制化的标记工作流,且提供了针对3D点云数据的多种内置标记工作流,如语义分割等。Amazon SageMaker Ground Truth Plus 提供全面的托管服务,并增强了数据标注的运营和质量管理的透明度,确保了数据标注过程的高效性和可靠性。
模型开发功能
Amazon SageMaker Canvas提供了基于可视化零代码的界面,用户可以通过点击式界面快速连接和访问来自不同来源的数据,并利用AutoML技术根据数据集自动识别最合适的模型,以生成单个或批量预测。此外,Amazon SageMaker Studio作为专为ML设计的集成开发环境(IDE),提供了无服务器化的开发体验,并支持Amazon S3对象存储或Amazon EFS文件存储,支持本地和远程开发,进一步增强了模型开发的效率和灵活性。Amazon SageMaker HyperPod通过为大规模分布式训练提供专用的基础架构,能够将基础模型的训练时间缩短高达40%。
模型管理能力
Amazon SageMaker Model Registry支持生产环境中模型的目录编制,而且能够有效管理模型版本,与模型相关联的元数据(如训练指标),以及模型的审批状态。此外,该服务还提供模型部署到生产环境的功能,并且可以通过持续集成/持续部署(CI/CD)自动化模型部署。Amazon SageMaker提供专门构建的治理工具Model Governance,使管理员可以在几分钟内定义用户权限,获取、检索和共享模型基本信息,如模型的预期用途、风险评级和训练细节。
亚马逊云科技在创新指数的,数据预处理模块、算法管理能力、模型部署能力三个指标项得分最高 :
数据预处理模块
客户可选多种高适用性且有效的样本扩充方法,利于减少过拟合风险提高数据效率并增强模型泛化能力:Amazon SageMaker Autopilot能自动扩充样本并生成代码;开箱即用的AI服务Amazon Rekognition和Amazon Comprehend等在自定义模型训练中也提供样本扩充能力;通过Amazon Bedrock中基础模型(FMs)的自然语言生成(NLG)能力和Amazon Polly,企业还能实现语音样本扩增。
算法管理能力
Amazon SageMaker提供了包括实验编排与管理、工作流编排、模型血缘管理、数据血缘管理在内的一系列工具,并针对不同场景提供了专门的编排模板,极大地增强了工具的实用性和易用性。此外,Amazon SageMaker支持用户自定义工作流,使得不同算法的灵活混合使用成为可能,并通过Amazon S3、Amazon EFS、 Amazon FSx等多样的存储和数据传输服务支持,提供灵活的数据接口。这些特点共同为算法的实验、开发和部署提供了全面而强大的支持,优化了算法管理的效率和灵活性。
模型部署能力
Amazon SageMaker Model Deployment支持多样的推理服务部署模式,包括无服务器推理、单节点多模型、异步推理等,以高性能和低成本适用于各种推理场景。Amazon SageMaker提供全面的推理服务监控,包括调用情况、资源利用率和模型行为分析,以及模型热更新功能,助力优化模型性能。Amazon SageMaker Edge Manager和Amazon SageMaker Neo还支持边缘设备的模型部署和优化,增强部署灵活性和效率。
《报告》还总结了亚马逊云科技在生成式AI的四个亮点,包括企业级安全和隐私、丰富而灵活的模型选择、轻松利用私有数据差异化定制、先进的高性价比基础设施。
为生成式AI竭尽所能
专注海外休闲游戏和人工智能生成类应用的成都四月科技有限公司,通过使用亚马逊云科技的托管机器学习服务部署推理模型,在仅投入3人的情况下在4周内即完成了全新的 2D 人工智能艺术应用程序“Anime AI”的上线,在上线后短期内即获得超过100万用户的认可。
这也是为什么《报告》中,Amazon SageMaker被频频提及的原因,2023re:Invent期间,Amazon SageMaker就推出了五项重磅功能:Amazon SageMaker HyperPod 可大规模加速基础模型训练,能够缩短高达40%的训练时间,并可以确保持续数周或数月的训练过程不中断;Amazon SageMaker Inference推理功能可平均降低50%的部署成本和20%的推理延迟;Amazon SageMaker Clarify可以帮助客户评估、比较和选择最佳模型;Amazon SageMaker Canvas的两项增强功能,用自然语言指令准备数据、利用模型进行大规模业务分析,将使客户能够更轻松、更快速地将生成式AI集成到他们的工作流程中。
金山办公正利用包括亚马逊云科技海外区域的Amazon Bedrock等一系列服务加速生成式 AI 技术在其产品中的落地,持续强化用户智慧办公体验。应用场景覆盖文本润色、文本重写、语法检查、语言翻译等。
最近Amazon Bedrock又推出了Anthropic的Claude 3 Opus模型,Amazon Bedrock也成为首个提供所有Claude 3系列模型的全托管服务,包括Claude 3 Opus和此前推出的Claude 3 Sonnet与Claude 3 Haiku。
在基础设施层,亚马逊云科技也一直在自研芯片,Trainium2芯片专为以高性能训练具有数万亿个参数或变量的基础模型和大语言模型而构建,与第一代Trainium芯片相比,性能提升多达4倍,内存提升3倍,能源效率(每瓦性能)提升多达2倍。
亚马逊云科技提供了基于Inferentia2芯片的Inf2实例,其是Amazon EC2上首个推理优化的实例。用户可以在Inf2实例中跨多个芯片高效部署具有数千亿个参数的模型。与 Amazon EC2 Inf1实例相比,Inf2实例的吞吐量提高4倍,延迟降低10倍。
同时,亚马逊云科技还围绕数据基础设施、数据集成和数据治理推出了很多新功能,帮助企业客户打造强健的生成式AI数据底座,例如:进一步丰富向量数据库选择,确保业务数据和向量数据同步支持生成式AI;推出Zero-ETL 集成特性,让跨数据存储的数据访问与分析更快速、更便捷;在数据治理方面,亚马逊云科技为 Amazon DataZone推出了AI描述建议功能预览版。
如安迪·贾西所说,与本地基础设施向云计算的大规模现代化迁移不同,这场生成式AI的变革从一开始就建立在云上。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。