至顶网CIO与应用频道 12月12日 北京消息:近日,白鹭科技官方正式向开发者推出全新H5游戏运营推广产品“白鹭微端解决方案”。该产品是白鹭团队为解决H5游戏打包为原生APP 而发布的原生打包解决方案,相比传统打包方案,产品以极小包体、完善的资源版本管理理功能、易推广等特性,更易留存用户。目前白鹭微端解决方案已集成在此前发布的全新引擎启动器Egret Launcher中,方便开发者快捷创建游戏项目。
微端产品以独特的产品形态实现游戏快速下载、安装和运行体验,深受移动游戏业关注。微端即是游戏微型客户端,通过极小微客户端下载运行,实现游戏快速启动运行,并能边下边玩,从而解决大多数网络游戏完全客户端较大,用户下载安装时间长,用户留存低等痛点。白鹭新上线的产品白鹭微端解决方案具有多个特性,很好的解决了此类问题:
白鹭微端解决方案
1.极小包体
相比于传统动辄百兆包体,下载缓慢,白鹭微端解决方案安卓系统的apk安装包不足1MB,苹果系统的安装包仅为2MB,极小的包体积让用户以较低的安装门槛下载安装游戏快速体验核心玩法,为打包原生APP在推广过程中降低用户获取成本,提高了留存率。
2.完善的资源版本管理
在普通浏览器中,玩家所加载的游戏资源会在浏览器关闭后被清除,玩家回流时,游戏内容需要重新加载。白鹭微端解决方案中,所打包的原生APP内置资源缓存功能,游戏资源仅在第一次使用时通过网络加载,其后将缓存在本机硬盘中。当游戏的版本更更新后,客户端会自动根据版本号进行资源匹配更新,以保证客户端中所有资源为最新版本。
3.性能与兼容性同时兼顾
游戏绚丽的画面需要消耗更多的硬件性能,为了满足开发者对性能的要求,白鹭微端内置Runtime模式。当切换到此模式时,游戏会被Runtime所接管,所有游戏中的JavaScript代码全部被映射为C++代码,此模式下可大幅度提升基于白鹭引擎所研发的游戏性能。
对于非白鹭引擎所研发的H5游戏,白鹭微端解决方案为开发者提供Webview模式,以保证兼容性,支持了其它不同游戏引擎所开发的H5游戏。
4. 本机Runtime模式
白鹭微端解决方案为开发者提供了本机Runtime模式,此模式下,白鹭微端解决方案会将对应版本的Runtime放置于原生APP内容。当玩家启动游戏后,无需动态下载Runtime,即能直接加载游戏资源,以保证游戏在第一时间打开。
Runtime模式
5. 可上架应用商城提供一级入口
H5游戏缺失稳定入口,会对用户留存和付费欲望产生冲击。开发者通过白鹭微端打包为原生APP后,可上架到AppStore、应用宝等同类应用商城,并能方便的接入广告、支付宝等第三方SDK。微端以极小的包体安装到用户手机,为其提供了一级入口。借助原生应用商城分发能力,开发者更易最大化的获取游戏用户数量。
目前,在12月4日上线的新版白鹭引擎启动器Egret Launcher中已将白鹭微端解决方案集成,方便开发者快捷的创建游戏。开发者可通过下载最新版本Egret Launcher,体验微端工具带来的便利。
白鹭微端解决方案使用说明
白鹭微端团队提供了非常详尽的使用说明:http://developer.egret.com/cn/microclient/readme/
下载白鹭微端解决方案产品请访问:
https://www.egret.com/products/microclient.html
获取更多产品信息请访问:
https://www.egret.com/index
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。