至顶网CIO与应用频道 11月20日 北京消息:近日,微软技术暨生态大会Microsoft Tech Summit2017在北京正式召开。作为与Microsoft携手十余年的战略合作伙伴,全球统一通信与协作行业的领导者Polycom公司应邀参加并受到广泛瞩目。
得益于十余年合作伙伴关系的力量,Polycom是唯一能够将40多种语音、视频和内容解决方案与Skype for Business、Microsoft Lync、SharePoint、Exchange和Office365直接集成的Microsoft合作伙伴。目前售出的与Skype for Business/Microsoft Lync无缝集成的电话设备中,有70%来自Polycom。
大会期间,Polycom大中华区技术总监余宝生、Polycom亚太地区微软业务总监Nico Walraven和Polycom亚太地区微软资深解决方案架构师Brennon Kwok,陪同微软大中华区副总裁、市场营销及运营总经理、物联网事业负责人康容(Roan Kang)等,一起参观了Polycom在现场的展位,共同体验了Polycom先进的音视频协作及内容共享解决方案。
Polycom的几款明星产品和解决方案在此次大会上格外耀眼:
今年发布的Polycom Pano为团队协作营造了高效、便捷的内容分享环境,所有参会者均可利用任何设备同时共享多达四方内容,解决了在内容分享过程中所遇到的复杂线缆连接、不同内容源接入受限等问题。只需将Pano与任意一台显示器连接,用户即可通过台式机、Mac机、平板电脑和智能手机等任何设备进行无线及有线内容共享,在线视频传输亦不在话下。
Polycom RealPresence Trio专为卓越协作体验打造的首款智能媒体中心,集语音、视频和内容共享于一体。RealPresence Trio够提供可靠、丰富的音频以及多媒体内容播放功能,即使无法避免在苛刻环境下使用,依然能提供高品质的音视频效果,故而已经成为各种协作环境下的最佳部署选择。
Polycom RealConnect是Polycom备受赞誉的创新视讯协作解决方案,包括Polycom RealPresence平台(附带RealConnect功能)、Polycom RealPresence内容共享套件和Microsoft Lync2013/Skype for Business。这一基于平台的创新解决方案可以同时为Skype for Business用户和Polycom终端提供统一的日程安排、便捷的一键加入体验以及本地内容支持,优化资源利用,带来熟悉的会议体验。
此外,人工智能与云也是本次大会的热门话题。在互联网、大数据时代,Polycom倡导各行各业共同学习、探讨和运用更加智能的协作解决方案,进一步构建企业和个人自身的云端技能。
事实上,Polycom已经在Polycom EagleEye Director II等产品上采用了AI技术,通过人工智能实现自动人脸识别,并可以实时聚焦正在发言的与会者。而早在2012年Polycom就提出了云战略,并不断完善产品线,为用户提供最全面的解决方案。刚刚发布的Polycom RealPresence Clariti™,作为业界领先的混合云软件服务架构,将引用云平台为运营商、合作伙伴、以及大客户提供领先的云视讯服务。同时,Polycom不断推动与微软等合作伙伴的深度集成,帮助用户在云化时代享受开放、无缝的协作体验。
未来,Polycom将进一步发力云视频会议市场,将技术和服务进一步转移到云上,并通过与不同领域合作伙伴勠力同心,共同构建开放、共融的云服务生态圈,为用户提供最完善、专业的云服务,继续引领通讯行业的发展。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。