至顶网CIO与应用频道 01月16日 北京消息:作为国内 O2O 长租公寓的领头企业,自如的业务涵盖 PC、APP、微信全渠道,涉及分布在 9 座一线和二线城市逾 160 万客户。居住是每个人都有的需求,自如的各个线上渠道会产生出海量的数据。这些持续累积的数据需要得到进一步分析,才能挖掘出其背后的规律,指导业务和公司战略的制定。但大数据分析涉及到众多人力和物力,在没有部署 Tableau 之前,自如的数据部门需要配合业务需求反复进行表格导出,报表开发也会占用大量时间和人力。此外,在内部管理方面,如何更高效地将公司战略逐级传达,确保员工间能够很好地理解与落地实施,这对于拥有 10000 多员工的自如来说也并非一件易事。
但在部署 Tableau之后,自如从成立到现在 6 年多的历史数据得到了深度挖掘,并且发现了业务的季节性规律。业务部门由此能够合理地进行布局,提前招聘人员和准备库存,在合适的时机投入相应的营销费用。通过将 Tableau 与业务洞察结合,业务部门在市场预测方面获得了全新的发现,并由此优化了业务节奏,提升了公司的整体营业收入。自如认为,Tableau主要在三个方面价值比较大,第一个是它能够极大的减少沟通成本;第二个价值是它可以很快缩短我们报表的开发周期;第三个价值是 Tableau 不仅是一个可视化工具,它其实是一个很好的分析工具。
对于自如这样超过一万人的大型公司,Tableau 易于上手的可视化功能能够确保信息在传达时保持清晰和简单,更好地实现自上而下的传递,并增强员工对信息的理解和执行力,减少沟通成本。
通过运用 Tableau 将数据按业务线进行指标化梳理后,负责各产品线的员工就得到了非常明确的指引,并能够将公司制定的指标与自己的行动紧密关联。指标层层分解后,员工还可以轻松借助 Tableau 对公司目标实现情况和个人的完成进度实时跟踪,及时调整自己的业务策略。在这当中,Tableau 帮助自如实现了从战略目标到落地执行,再到实时监测和调整的高效联接。
Tableau 在部署之后不久便帮助自如的数据部门缩短了报表的开发周期。报表开发时间缩短 7 倍,报告开发总周期从近 1 年降至不到 1 个月。原先自如内部每周每一条营销线都需要花四人一整天的时间来写周报,而在引进 Tableau 之后,同样的报表每周只需要花 一个人半天的时间来完成。这仅仅只是一条业务线,一个城市的情况,自如业务目前涵盖 9 个城市,而每个城市都有两条长租公寓业务线。
同时,自如报表平台的开发速度也得到了显著提升,先前要分好几期,每期三个月的开发流程,在应用 Tableau 之后不到一个月的时间,数据部门就结束了之前待处理全业务流程所有报表的开发,而且业务部门在使用 Tableau 之后,对数据部门提出的数据导出需求也大幅下降了 90%。
自如成立大概 6 年多的时间,但是之前累积的历史数据一直没有得到全面的挖掘,其中的业务洞见也没有被及时发现。
在使用 Tableau 进行数据深度挖掘后,自如的业务部门发现了客户访问与房源供给均呈现出了非常季节性的规律变化。借助 Tableau 的分析,自如将积累沉淀下来的历史数据转换成了能够指导实践的商业洞察,优化了业务预测和业务布局节奏,仅仅一个季度就节约了 300 万的营销成本。
虽然自如部署 Tableau 的时间并不长,但公司内部已经积累了很多忠实的粉丝。通过与数据部门合作使用 Tableau 制作 BI 报表,自如的业务部门在整个过程中已经充分看到了 Tableau 的价值。再进一步完善内部数据安全设置后,相信 Tableau 将能够为自如带来更多的业务洞察,发挥更大价值。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。