至顶网CIO与应用频道 06月20日 北京消息:百度VR牵手三星Gear VR,为用户打造VR极致体验。一直以来,这两家公司都以创新与突破为宗旨,分别位列VR内容与硬件的第一梯队。此前,百度VR对市面上所有的主流VR眼镜做了适配,只要用户购买的是主流VR眼镜,均可在百度VR上获得最贴合的视觉体验。此次百度VR与三星Gear VR强强联手,再次提升用户的虚拟现实体验。
百度VR与Gear VR合作,全面提升用户的VR体验
百度VR的主版本使用的是Google VR SDK,而Gear VR 使用的是Oculus 的SDK,不同的SDK在实现和使用上会有所区别。百度VR与Gear VR合作,单独适配就是为了解决这些差异,使得百度VR在三星Gear VR上可以正常运行。此次双方适配成功,只用了一周的时间,是因为百度VR的技术团队提前调研了Oculus与Google SDK之间的不同点,所以在前几个版本主版本开发中就已着手针对VR SDK做了一个适配层。
百度VR与三星Gear VR合作,目的是提升用户的虚拟现实体验。虽然对用户提出了一些门槛要求,但其实是为了保障目标用户的VR体验。Gear VR对手机型号有要求,目前只支持三星手机,支持的手机型号包括S7、S7 Edge、Note5、S6 Edge+、S6和S6 Edge。正因为这些手机型号性能较佳,再加上Gear VR使用的Oculus SDK,也会对相关的机型优化,所以用户使用Gear VR+三星手机,观看百度VR的海量VR资源,能够获得优质的VR体验。
百度VR 登陆三星Gear VR
用户可在三星应用商店搜索“百度VR”or“百度VR浏览器”均可下载
百度VR登陆Gear VR,带来全新沉浸体验
三星Gear VR的魔幻之旅从用户戴上这副护目镜之后就开始了,用户瞬间就从现实世界进入了一个完全崭新的环境中。百度VR与三星Gear VR合作具有一定的行业标杆意义。
尽管百度VR与三星Gear VR合作之后,玩法略有改变,但是简单易学。首先,将Gear VR的护盖打开,看到可以左右移动的夹子,方便手机放置连接。第二,翻到它的另一面,便是VR眼镜观看画面的位置。VR眼镜里面是电子的距离感应器,戴上VR眼镜时,一切都是自动感应。第三,在VR眼镜的佩戴方面,两端的带子能够让你选择合适的佩戴位置。第四,将手机打开并启动百度VR,用户会收到提示连接Gear VR眼镜,只要戴上眼镜就会自动进入百度VR的3D主界面,通过眼镜一侧的触控板来进行操作。第五,戴上以后便不用担心各种调节因素,因为百度VR能自动调整视角,支持各种姿势观看VR。第六,开始前所未有的VR新体验。
打开百度VR应用,立即提示连接Gear VR
VR视频播放界面
百度VR坚持开放原则,行业合作打通VR产业链
百度VR此次与三星Gear VR合作,是虚拟现实界的重磅利好消息。百度VR是百度在VR领域的战略代表产品,官网是vr.baidu.com,旗下包含百度VR APP应用(如:安卓/iOS/一体机等版本),技术开放平台(vr.baidu.com/open)、VR广告平台、VR行业解决方案。
通过此次与三星Gear VR的合作,百度VR扩大了自己的用户市场,提升了用户体验。百度VR在未来的发展战略上,致力于打造VR浏览生态,目前已经推出Android、iOS及VR一体机版本,未来还有PC版本,将成为全球领先的同时支持Mobile、PC和一体机平台的VR应用。百度VR始终坚持开放的合作战略,希望能与更多优秀的同行一起努力,推动VR产业链的整体发展。
好文章,需要你的鼓励
这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
这项研究提出了SHARE,一种新型文本到SQL修正框架,它利用三个小型语言模型(SLM)协同工作,实现高效精准的SQL错误修正。SHARE首先通过基础行动模型将SQL转换为行动轨迹,再经过模式增强模型和逻辑优化模型的层次化精细化修正。研究团队还创新性地提出了层次化自演化训练策略,大大提高了训练数据效率。实验结果表明,SHARE在多个基准测试上显著提升了SQL生成准确率,计算成本仅为传统方法的十分之一,并展现出强大的泛化能力,适用于各种生成器模型和SQL方言。
这项由香港大学和南京大学等机构研究人员联合开发的双专家一致性模型(DCM)解决了高质量视频生成中的效率难题。研究团队发现扩散模型蒸馏过程中存在优化冲突:早期阶段负责语义布局与运动,后期阶段关注细节精修,两者学习动态差异显著。DCM创新性地将这两个任务分配给不同的专家模型,通过参数高效的实现方式,使模型仅需4步即可生成接近50步原始模型质量的视频,大幅提升生成速度,为实用化AI视频创作铺平道路。
这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。