记者从行者AI(成都潜在人工智能科技有限公司旗下品牌,xingzhe.ai)获悉,该公司利用亚马逊云服务(AWS)旗下的全托管机器学习服务Amazon SageMaker开发的游戏内容过滤服务,对不恰当内容的识别率超过96%,大大高于同类产品的水平,上线短短三个月内,已经获得了几十家游戏客户青睐,服务于三国群英传、多多自走棋等多款游戏。借助AWS云服务,行者AI的上线时间比计划缩短了6个月,运营效率提升76%,运营成本节省45%。此外,行者AI还利用AWS云服务开发了AI对战机器人、AI情绪控制、AI自动测试、游戏数据平台等产品,将为游戏企业提供更多有价值的服务,帮助游戏企业改善运营,提高效益。
在游戏运营中,内容审核是一项成败攸关的工作。低俗色情谩骂等内容会导致用户反感,破坏正常交流环境;违规敏感内容会导致平台整顿、停摆;恶意商业推广、垃圾广告会导致用户流失、营收损失。人工审核要耗费大量的人力、时间和精力,而且很难做到实时、全部审核。而目前市场上的通用审核工具,准确率差强人意,而且模型不能进行更新,或者更新周期长。
为此,行者AI推出了一个具有强大机器学习能力的游戏内容过滤服务。团队在考虑IT基础设施建设时认识到,作为一家初创公司,行者AI只有20多人,要尽可能减少运维投入,把更多的精力投入到算法上;内容过滤服务开发和运行中需要大量的GPU、CPU计算资源,并且高峰需求是短暂、不连续的;数据是人工智能的核心要素,数据灾备不可或缺。于是,行者AI决定选择AWS上云,以云原生架构进行开发。
通过使用Amazon SageMaker机器学习服务,行者AI团队可以一键构建、训练、部署机器学习模型,无需自行运维和管理底层的计算资源和机器学习框架等,极大地提高了开发效率。在开发内容过滤服务的过程中,要进行大量的机器学习和深度学习训练。利用Amazon SageMaker,开发团队一旦有新的想法,就可以快速进行算法验证,根据结果做出优化和修正,使每一次模型训练都可以受益于SageMaker带来的效率提升。
行者AI首席技术官江天宇接受记者采访时表示,在他们的调研中,“Amazon SageMaker是所有云厂商中唯一实现了一站式机器学习服务的解决方案。从模型构建、训练、测试到最终的发布,SageMaker提供完善的解决方案,而且操作使用非常简单,基本能做到一键完成,给开发者节约了大量的时间。SageMaker对市面上绝大多数深度学习框架,比如Tensorflow、PyTorch等,都有非常好的支持。AWS的技术支持也非常到位,在模型发布过程中,及时快速地帮助行者AI解决了诸多疑难杂症,为内容过滤服务提前半年上线提供了强有力的保障。”
通过使用Amazon EC2 Spot(竞价)实例,也解决了行者AI对计算资源的弹性需求问题。与按需实例相比,可以将成本降低高达 90%。通过使用完全托管的Amazon Elasticsearch Service服务,行者AI可以搜索、分析和可视化 PB 级的日志数据,而不需要操心数据存储、灾备、扩展等运维问题。
AI对战机器人将深度强化学习技术应用于游戏中,机器人通过学习玩家战斗数据,在模拟环境中进行大量对抗式训练,能够在任意状态下找到最优决策,达到高手玩家操作水平。同时,通过对参数进行调节,可以生成各个难度等级的机器人。由于采用真人玩家数据训练,AI对战机器人将会模仿人类玩家的真实操作,提高游戏内的玩家体验。行者AI COO陈洪宇指出,目前《多多自走棋》AI对战机器人每日调用均值达到百万次,单次调用会持续30分钟左右。
“多年来,游戏行业通常将业务侧重点放在发行上,人力投入重在运维,以及跟游戏收入明显相关的工作。相对来讲,AI的渗透率并不高。”AWS相关负责人介绍。“行者AI凭借自研算法,推出内容过滤、游戏AI以及数据平台解决方案,为游戏企业做AI赋能,业务价值显著。相信未来在游戏行业将涌现更多样化的机器学习应用场景。”
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。