亚马逊云科技持续助力初创型企业的创新与发展,日前成功地帮助北京大觥科技有限公司(以下简称“大觥科技”)建立起弹性扩展、成本高效、敏捷创新的技术架构。通过采用由 Amazon Graviton2自研云原生处理器提供支持的 Amazon Elastic Compute Cloud (Amazon EC2) M6g高性价比实例,加上Spot实例付费方式的组合,以及多项亚马逊云科技功能强大的云服务,大觥科技实现了20%的运营成本节省、40%的运营效率提升,应用迭代更新的速度数倍提升。与此同时,基于亚马逊云科技的技术架构,还让大觥科技赢得关键客户信任,利用其先进的AI影像处理技术,为客户处理珍贵图片。
大觥科技是一家专注AI影像处理领域科研和应用的公司,它将颠覆性的技术带给老旧照片修复、画质增强等行业,其面向个人用户推出的两个App“你我当年”(国内)和 “Remini”(海外),在很多国家和地区成为热门的“现象级”应用。在企业级市场,大觥科技服务于国内外多家电影厂、电视台、影视后期公司、以及其它有影像处理需求的公司。
大觥科技选择亚马逊云科技的起因是解决算力问题。大觥科技副总裁袁泉介绍说,2020年2月,大觥科技的App用户量爆增,算力遇到瓶颈,迁移到亚马逊云科技以后,亚马逊云科技充足的算力,迅速地解决了燃眉之急。使用亚马逊云科技之后,大觥科技和亚马逊云科技的客户团队建立了良好的关系。在此后的时间里,亚马逊云科技客户团队帮助大觥科技完善了知识体系,不断地完善其技术架构。
采用由Amzon Graviton2 处理器提供支持的 Amazon EC2 M6g新一代高性价比计算实例,就是一个典型的例子。Amazon Graviton2是亚马逊云科技自研的、原生为云而设计开发的芯片,是亚马逊云科技推出的第二代基于Arm架构的处理器。与同配置X86实例相比,Amazon EC2 M6g、C6g 和 R6g 实例的性价比提高了40%。为了方便测算,大觥科技针对生成缩略图这一业务场景,采用Amazon C6g实例和前一代基于X86处理器的Amazon EC2 C5实例进行对比,采用前一代C5实例,1秒钟能处理20张2K*2K分辨率的图片;而采用C6g实例,1秒钟能处理26张同样大小的图片,性能提升30%。按处理250万张图片的成本计算,采用C6g实例节省了38.6%的成本。大觥科技还根据其流量容易出现爆发式增长的特点,采用Amazon EC2 Auto Scaling Group + Spot实例实现自动弹性扩容,基本实现零运维,不用配备专职运维人员。
大觥科技还采用多项亚马逊云科技托管服务提高应用开发效率,例如采用亚马逊云科技开箱即用的AI服务Amazon Rekognition,对用户分享出来的图片进行合规检测;采用亚马逊云科技 Trusted Advisor和Amazon GuardDuty检测漏洞,等等,让大觥科技的应用迭代更新速度数倍提升。最终,基于亚马逊云科技的技术架构,让大觥科技的运营成本节省了20%,运营效率提升了40%。
大觥科技跟以色列某公司谈项目时,客户要求其图片资源高度保密,而大觥科技也希望自己的算法模型高度保密。为了能够让双方各自控制自己的信息资产、又能够顺利开展项目,亚马逊云科技为大觥科技提供了Amazon Organizations与 Amazon资源分配管理(RAM) 集成的解决方案,双方可以跨账户指定中央配置、安全机制并实现资源共享,与此同时满足双方的数据审计要求。这家以色列公司也是亚马逊云科技的深度用户,对亚马逊云科技高度信任。亚马逊云科技丰富的技术组合,加上双方对亚马逊云科技的共同信任,帮助大觥科技达成了项目签约,实现了合作。
大觥科技副总裁袁泉总结道,“回顾一下我们的历史,发现我们有若干次的重大瓶颈都是在亚马逊云科技的助力之下突破的。当我们遇到算力制约的时候,亚马逊云科技有充足的算力和高性价比的新一代实例,Spot实例带来实惠的性价比,给我们提供了充足的保证。当我们面临企业客户业务复杂多样的需求时,亚马逊云科技有完善的技术体系和全面的功能,使我们总能找到合适的解决问题的组合。尤其我们作为初创公司服务海外客户,在涉及数据安全等方面问题时,客户对亚马逊云科技的信任对我们是一个非常关键的背书。我们团队到现在为止还是DevOps的配置,没有专职运维人员,当我们的知识体系出现空缺的时候,亚马逊云科技的专业团队总是能够及时地给我们指导,解决我们的短期问题,同时对我们的长期规划做出建议。所以有了亚马逊云科技的支持,我们就没有后顾之忧。“
未来,大觥科技还考虑会引入更多的亚马逊云科技服务,比如将机器学习的训练任务通过Amazon SageMaker来执行,并计划利用Amazon SageMaker的用户分析模型对大觥科技的广告投放提供指导。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。