至顶网CIO与应用频道 11月08日 北京消息:11月6日,全球最大的独立移动广告平台InMobi在北京举行了“AI视频 全域智达“2018品牌新品发布会,推出了以人工智能为基础的重磅产品:InMobi视频4.0品牌广告解决方案,并就移动优先、大数据及人工智能浪潮下视频广告未来如何发展、AI如何改变移动营销以及如何再造媒介营销、人工智能在移动广告领域的技术应用和全球品牌移动营销最新趋势等话题,进行了深入的探讨。
InMobi此次发布的视频4.0整体解决方案,是以大数据、AI技术为基础,以智能理解用户、智能场景投放为目标,建立起来的一套完整的产品、技术体系。他们希望通过这套解决方案,带来全时域、全地域、全空域的移动视频广告智能触达,帮助品牌广告主“找到对的人”,“触达到对的人”从而“深入影响对的人”。
为了实现这一整套解决方案,InMobi率先对LBS定向技术进行了革命性的升级,将传统的基于兴趣位置定向(POI, Point of Interest)升级为智能场景位置定向(AOI, Area of Interest)。在多家LBS数据合作伙伴和机构的支持下,InMobi AOI技术能够将地理位置区域由圆圈升级为更精确的多边形位置,实时记录用户设备出现在各楼宇的位置和出现次数。
同时,结合6.5亿月独立活跃用户的人口信息等基本属性,以及用户行为标签、多维度的用户APP内行为记录等数据,InMobi移动广告平台建立起了三维立体性空间标签体系,刻画出了InMobi平台用户的完整立体画像,为精准地找到目标用户提供了强大的支撑。
在此基础上,InMobi凭借拥有超过30000个高质量APP的强大媒体矩阵,智能全面覆盖包括社交、出行、娱乐、学习等在内的几乎所有用户生活场景,从而让及时捕捉用户场景变化,实现智能场景投放成为可能。更为重要的是,InMobi平台采用SDK集成对接APP,不但可以支持他们于2017年初便推出的移动视频广告全线解决方案,还能为用户提供“零缓冲”以及个性化的视频体验,为品牌广告主带来更高的目标用户触达,提高视频播放完成率。
InMobi大中华区总经理杨娟在发布会现场还介绍道,为了实现品牌数据效果最大化,InMobi还建立了自己的InMobi CDP品牌数据库,打通与品牌广告主CRM以及目标用户的数据通道,并通过Video 4.0可视化验证解决方案,验证数据效果。同时,为了最大程度上方便品牌广告主,InMobi还推出了独家创意视频智能生成平台Helix、独家全球智能调研平台InMobi Pulse等工具,让品牌广告主能够高效便捷地生成创意素材,并进行广告投放前后的调研。
视频广告在经历了从电视广告到贴片广告,再从移动贴片广告到AI营销的变革之后,也正式迎来了自己的4.0时代。人工智能、大数据、全场景、碎片化、智能曝光等,已经成为时下营销行业讨论的关键词。在这种新趋势下,品牌广告主如何利用好AI视频广告来最大化自己的品牌曝光,也成为了一项重要课题。
此次InMobi“AI视频,全域智达”品牌新品发布会,也是该公司与广大行业专业人士以及品牌广告主对智能营销现状与未来想象空间的一次有益探讨。据了解,InMobi还将于11月9日和12月初,先后举办“AI视频,全域智达”2018品牌新品发布会“上海场和广州场。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。