至顶网CIO与应用频道 06月20日 北京消息:百度VR牵手三星Gear VR,为用户打造VR极致体验。一直以来,这两家公司都以创新与突破为宗旨,分别位列VR内容与硬件的第一梯队。此前,百度VR对市面上所有的主流VR眼镜做了适配,只要用户购买的是主流VR眼镜,均可在百度VR上获得最贴合的视觉体验。此次百度VR与三星Gear VR强强联手,再次提升用户的虚拟现实体验。
百度VR与Gear VR合作,全面提升用户的VR体验
百度VR的主版本使用的是Google VR SDK,而Gear VR 使用的是Oculus 的SDK,不同的SDK在实现和使用上会有所区别。百度VR与Gear VR合作,单独适配就是为了解决这些差异,使得百度VR在三星Gear VR上可以正常运行。此次双方适配成功,只用了一周的时间,是因为百度VR的技术团队提前调研了Oculus与Google SDK之间的不同点,所以在前几个版本主版本开发中就已着手针对VR SDK做了一个适配层。
百度VR与三星Gear VR合作,目的是提升用户的虚拟现实体验。虽然对用户提出了一些门槛要求,但其实是为了保障目标用户的VR体验。Gear VR对手机型号有要求,目前只支持三星手机,支持的手机型号包括S7、S7 Edge、Note5、S6 Edge+、S6和S6 Edge。正因为这些手机型号性能较佳,再加上Gear VR使用的Oculus SDK,也会对相关的机型优化,所以用户使用Gear VR+三星手机,观看百度VR的海量VR资源,能够获得优质的VR体验。

百度VR 登陆三星Gear VR
用户可在三星应用商店搜索“百度VR”or“百度VR浏览器”均可下载
百度VR登陆Gear VR,带来全新沉浸体验
三星Gear VR的魔幻之旅从用户戴上这副护目镜之后就开始了,用户瞬间就从现实世界进入了一个完全崭新的环境中。百度VR与三星Gear VR合作具有一定的行业标杆意义。
尽管百度VR与三星Gear VR合作之后,玩法略有改变,但是简单易学。首先,将Gear VR的护盖打开,看到可以左右移动的夹子,方便手机放置连接。第二,翻到它的另一面,便是VR眼镜观看画面的位置。VR眼镜里面是电子的距离感应器,戴上VR眼镜时,一切都是自动感应。第三,在VR眼镜的佩戴方面,两端的带子能够让你选择合适的佩戴位置。第四,将手机打开并启动百度VR,用户会收到提示连接Gear VR眼镜,只要戴上眼镜就会自动进入百度VR的3D主界面,通过眼镜一侧的触控板来进行操作。第五,戴上以后便不用担心各种调节因素,因为百度VR能自动调整视角,支持各种姿势观看VR。第六,开始前所未有的VR新体验。

打开百度VR应用,立即提示连接Gear VR

VR视频播放界面
百度VR坚持开放原则,行业合作打通VR产业链
百度VR此次与三星Gear VR合作,是虚拟现实界的重磅利好消息。百度VR是百度在VR领域的战略代表产品,官网是vr.baidu.com,旗下包含百度VR APP应用(如:安卓/iOS/一体机等版本),技术开放平台(vr.baidu.com/open)、VR广告平台、VR行业解决方案。
通过此次与三星Gear VR的合作,百度VR扩大了自己的用户市场,提升了用户体验。百度VR在未来的发展战略上,致力于打造VR浏览生态,目前已经推出Android、iOS及VR一体机版本,未来还有PC版本,将成为全球领先的同时支持Mobile、PC和一体机平台的VR应用。百度VR始终坚持开放的合作战略,希望能与更多优秀的同行一起努力,推动VR产业链的整体发展。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。