ZD至顶网CIO与应用频道 08月26日 人物访谈(文/王聪彬):移动广告市场到底有多大?从目前看来距离市场饱和还很远。但移动广告的增长速度飞快,据预测2016年中国移动广告支出将仅次于美国成为第二大市场,到2020年甚至可能超过美国。
目前AppLovin自动化移动营销平台每天处理的广告需求超过500亿,分布在全球的7个数据中心,每日处理的数据量可达到150TB以上。每一个营销企业都希望乘上这个变化的浪潮,但这不仅要对市场需求充分了解,还要具备优秀的产品和技术。
“工程师是AppLovin永远不会停止招聘的职位,我们希望用顶尖的技术帮助营销市场做更好的引导。”AppLovin全球业务发展副总裁拉斐尔·维瓦斯(Rafael Vivas)说,AppLovin与中国本土营销企业并非是完全的竞争,合作将是未来AppLovin中国业务快速扩张的契机。
AppLovin全球业务发展副总裁拉斐尔·维瓦斯(Rafael Vivas)
移动营销起飞的风口
让品牌和产品获得更多注意力作为营销的本质几乎从未改变,而其中变化的是人们获取信息的渠道,2011年开始企业营销从PC端向移动端的转移已经成为新的趋势。
尤其在今年,移动广告可以称得上是广告市场的一个转折点。
eMarketer报告显示,2015年中国移动广告支出首次超过桌面广告。2016年这一趋势将更加明显,eMarketer预测2016年中国移动广告支出将会有58%的增长,到2019年则至少有20%的增长。
广告型态的变化让企业更加贴近消费者,甚至产生更多互动,像视频广告用户可以在看广告的同时更加了解游戏的玩法。拉斐尔·维瓦斯(Rafael Vivas)看到2016年中国移动视频广告将占整体视频广告的55%,预计2020年将占到73%。
不同性质的企业都在迅速的向移动营销模式转变,2C类型企业天生就需要捕捉消费者的需求,通过移动营销则可以更好更迅速的了解消费者。2B类型企业在传播上则更重视精准营销,这一需求也被移植到移动营销上。
正是捕捉到移动营销的需求爆发,以及预见到视频广告将有快速的增速,AppLovin从进入市场时,就选择了移动端广告营销这一入口。
自动化与精准的结合
AppLovin是一家2011年成立,覆盖全球超过十亿消费者的自动化移动营销平台,同时其还连接了所有主要的RTB(实时竞价)平台。AppLovin在移动端和Apple TV端帮助广告主高效触及新用户,并提供智能优化分析,让广告主能够通过实时数据信号进行有效的营销决策。
AppLovin总部位于美国硅谷核心帕洛阿托,在旧金山、纽约、伦敦、北京、东京及柏林均设有办公室,目前全球约有100名员工。
2013年AppLovin正式进入中国,主要负责中国业务的AppLovin战略合作伙伴关系总监游苗介绍,凭借海外出身在帮助中国广告主出海上受到了中国市场的青睐。同时为了更好地发展中国市场,在2015年也在北京建立了办公室。
AppLovin战略合作伙伴关系总监游苗
作为自动化移动营销平台,自动化体可以现在各个层面。AppLovin所有的数据都是自动化传输和分析,操作过程也非常自动化,并不需要太多的人为操作。
另外精准则体现在AppLovin将品牌诉求转化成数据,通过实时数据回传对这些数据信号进行实时判断,系统将自动化的达到客户想要触达的目标。
举个例子,客户想要将广告推送给20岁左右有消费能力的女性,在前期需要通过筛选出覆盖这一用户类型的广告位置,同时将效果数据实时进行传递,将所有数据进行实时分析,最终筛选出转化率最高的位置。这源于任何一个广告在投放时,AppLovin会基于企业过往的投放经验,通过对历史数据进行分析了解诉求,帮助企业更好的达到目标。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。