至顶网CIO与应用频道 08月11日 北京消息:今年伊始,WebAssembly的技术与应用极速来袭。17年3月4大主流浏览器厂商(谷歌、微软、苹果、火狐)共同推出新运行机制WebAssembly方案,以用于解决WebApp执行效率问题。为顺应开发需求趋势,H5引擎技术商白鹭时代发布了业内首个双核H5引擎白鹭引擎5.0(Egret Engine5.0)。作为其旗下产品矩阵实力担当,该引擎提供WebAssembly极速版本和JavaScript兼容版本。今天我们试图从多维度客观分析白鹭引擎5.0双核H5引擎功力。
双核驱动,高性能稳定性兼容
国内H5游戏引擎厂商目前均使用JavaScript作为H5游戏运行环境,虽然JavaScript有着开发效率高、浏览器兼容性好等优势,并且有大量成功案例,但其性能与采用WebAssembly运行环境的引擎相比却黯然失色。除了对JavaScript的支持外,白鹭引擎工程师们在经过对前沿技术持续探索并深入考量兼顾现有开发环境,提供了一款也是现有市面中唯一一款支持WebAssembly(WASM) 极速模式和JavaScript(JS)兼容模式的双核驱动游戏引擎。
白鹭引擎5.0拥有全新的基于 WebAssembly 的渲染架构,对比4.0版实现运行效率提升300%。白鹭引擎团队不惜重写引擎底层技术,在优化工作方面花费大量心思,5.0引擎遵循HTML5标准,包括2DD游戏渲染核心,搭载WebAssembly极强运行计算力,它已具有出色运行性能优势及高速开发效率,并擅长跨平台运行。开发者也可以尽可能的不用关注浏览器底层实现,如果浏览器不支持WebAssembly,白鹭引擎5.0可以智能切换回JavaScript兼容模式。在使用WebAssembly版本开发过程中开发者如果担心兼容性问题,白鹭引擎5.0则可以提供完全兼容版本的JavaScript,无需担心升级带来的问题。
性能进化,瘦身不减极致效率
从引擎诞生之初,白鹭的工程师们对于对于包体的小巧和运行的稳定极为在意。在工程师们巧思妙想中,使得白鹭引擎5.0包体在采用WebAssembly体积后比JavaScript体积更小一些,可以把C++通过WebAssembly的编译器直接编译成erget.wasm或者是erget.asm.js,以及引入新的二进制模式,包体降低、运行性能都大大提高。
包体减负并未缩减性能的再次进化,在同屏500个龙骨动画,使用小米MIX测试机型里, Egret Engine 5.0 JavaScript版本性能比Egret Engine4.x 的性能高出近 3 倍, Egret Engine 5.0WASM版本性能领先 Egret Engine4.x4 倍。
在减负同时,白鹭工程师们也一直考虑着为开发者提供人性化升级策略。白鹭引擎5.0版本引入模块化升级,例如开发中如果声音有问题可以单独升级声音模块,且不会影响其他模块的正常使用,其它模块升级则同理适用。在后续优化工作中,白鹭引擎工程师们则同时维护JavaScript版本和WebAssembly版本,所以开发者无需担心升级带来的负担。
巧思妙想,细节营造更好体验
有着丰富开发经验的工程师们把极致设计思路也引入了引擎,启动器提供软件统一入口,为开发者提供项目管理、工具管理、资源链接三大管理功能。项目管理清晰方便的管理开发者过往制作的所有工程,工具管理则将所有白鹭引擎工作流产品集合,便捷及时更新下载。同时考量到社区活动、培训教程学习等内容对于开发者的帮助,白鹭引擎5.0开放资源链接这一功能则与开发者愿望再次契合。
界面简约而不失单调,功能齐全且注重细节营造,倾注工程师们大量心血,作为一款经典而时尚的引擎产品,白鹭引擎5.0有着更强大的性能更稳定的兼容性,虽然小巧轻盈但不失凌厉内核,实为颜值与智慧的结合,满足开发2D 3D游戏需求,无疑可以轻松开启精彩创意工作。
好文章,需要你的鼓励
两家公司在OverdriveAI峰会上分享了AI应用经验。Verizon拥有超过1000个AI模型,用于预测客户呼叫原因和提供个性化服务,将AI推向边缘计算。Collectors则利用AI识别收藏品真伪,将每张卡片的鉴定时间从7分钟缩短至7秒,估值从8.5亿美元增长至43亿美元。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
Hammerspace发布v5.2数据平台软件,通过更快的元数据读取、更好的数据放置和扩展性优化提升AI数据访问性能。新版本IO500总分提升33.7%,总带宽翻倍,IOR-Hard-Read测试提升超800%。增加了Tier 0亲和性功能,支持GPU服务器本地存储访问,减少集群内网络流量。新增Oracle云支持、Kerberos认证和标签化NFS,提供更细粒度的访问控制。该软件将于12月正式发布。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。