今日获悉,国际权威研究机构Gartner 2021年度《Magic Quadrant for Cloud AI Developer Services》研究报告正式出炉,腾讯云成为唯一两年连续入围的中国厂商。其中,腾讯云AI在“执行能力”(产品、服务、销售等)维度的位次位居国内厂商第一。
作为全球最具权威的IT研究与顾问咨询公司,Gartner每年都会发布不同领域的市场调研报告。
腾讯很早就开始在AI技术领域的布局和研究,并基于游戏、社交、移动支付等领域的优势地位, 逐渐在计算机视觉服务、自然语言处理以及市场影响力等层面在AI开发者群体中形成了强大的技术影响力。
以计算机视觉而言,腾讯云依托腾讯优图实验室多年的技术研究和落地探索,输出超过100+AI原子能力,打造了超过30种AI技术解决方案,并为数万家内外部客户提供AI技术服务,让企业在产业互联网的浪潮中实现“降本增效”。 此外,基于腾讯优图实验室算法支持的人脸识别、人脸核身、人体姿态到图像视频处理和分析,再到OCR技术,腾讯云都提供了非常丰富的计算机视觉产品组合。
在自然语言处理方面,腾讯云拥有广泛的NLP组合,可以非常便捷的帮助开发人员获得可靠和可扩展的能力,并且在大量可用数据基础上训练模型的能力。同时,通过其灵活的定价策略,开发人员可以很方便地开发出大型AI原型。值得一提的是,腾讯云还积极组织多种AI技术竞赛,和全球开发者分享前沿技术实践。
在AI平台层面,为持续降低 AI 应用开发成本,腾讯云联合腾讯优图实验室打造的全栈式人工智能服务平台云智天枢TI Matrix,能够快速帮助企业或开发者接入各种数据、算法和智能设备,并提供可视化编排工具进行服务和资源的管理及调度。同时,一站式机器学习生态服务平台智能钛TI-One还能够对各种数据源、组件、算法、模型和评估模块进行组合,帮助算法工程师和数据科学家方便地进行模型训练、评估和预测。
更为重要的是,腾讯通过持续地运营,正在将自身在消费者业务中的优势地位不断应用到AI领域,并构建出市场上最完善的生态系统之一。包括推出强大的合作伙伴计划,强化和服务提供商、软件开发商,以及众多行业客户合作,真正帮助AI开发者随时随地获取专业的知识和技术服务支持。
与此同时,为了夯实整个AI行业发展根基,腾讯还与合作伙伴共建AI产业生态,包括推出AI加速器计划。作为腾讯产业加速器的重要组成部分,腾讯AI加速器背靠腾讯产业生态投资,依托腾讯AI实验室矩阵的核心技术,腾讯云平台强大的计算能力以及丰富的应用场景,为入选项目提供课程、技术、资金、生态、品牌等层面的扶持,与入选项目共同打造行业解决方案,推动AI技术在产业中的应用落地。
事实上,腾讯拥有众多实力强劲的人工智能实验室,包括专注于基础人工智能研究的腾讯AI Lab,专注于视觉AI技术研究的优图实验室,聚焦语音识别、自然语音处理、数据挖掘和机器学习等领域的微信人工智能实验室。值得注意的是,腾讯正在并将其丰富的人工智能资源转化为腾讯云的多种服务能力,广泛应用于游戏、视频、金融、工业、教育、零售、广电传媒、政企等行业。
据了解,截止去年9月份,腾讯人工智能中国专利申请超过 5600 件,授权超过 1200 件,AI领域中国专利申请总量位于国内互联网公司第一。另外,腾讯云AI公有云日处理图像超 30 亿张,日处理语音超 250 万小时,日处理自然语言超千亿句,服务全球用户数超过 12 亿,客户数超过 200 万。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。