案例基本内容和执行情况
在数字经济发展趋势下,结合集团战略愿景“成为更好居住生活智慧服务的推动者”,我爱我家将数据驱动作为集团数字化转型策略的核心。2022年,我爱我家过集团统筹建设,将经纪业务核心系统落地直营九城实现全国—体化业务系统工程,并且对新房业务系统、二手与普租业务系统进行数字化产研组织融合,通过将消费者C端系统建设与业务B端系统双路合并,逐步完备出中国居住服务行业领先的经纪业务全链路数字化平台系统,服务近3000家经纪业务实体门店,赋能超40000余人房产顾问。
多维创新,建设经纪业务全链路数字化平台
平台基于分布式架构系统设计,将原应用于北京单城业务系统改造为多城市兼容方案,并且融入权限体系控制与经纪人合作机制,实现公司一体化的核心业务系统。
在经纪平台系统页面交互和视觉呈现方面,采用“一云多端”的模式,高效、差异化满足多终端、多系统、多场景的用户需求。并通过端智能无延时感知用户使用偏好,结合用户在端上的交互,提供更加实时、更加安全、个性化的服务体验。
在经纪人作业效率方面,销售环节通过作业与数据分离架构,作业层实现7*24小时房源核验及验真、委托合同自动备案及房产证OCR自动识别、实勘及房源翻录,隐号拨打等一系列数字化系统及工具,保证底层房源数据准确、完整、及时,交易环节采用规则引擎进行多场景自动化管理及OCR自动识别合同备件,通过大数据及智能匹配策略科学评判好房、好客、经纪人信用等标准及规范,智能筛选出优质房、客、人及匹配策略降低经纪人工作量。
底层大数据系统以开源的分布式存储系统Hadoop为基座,融合离线计算Hive和Spark、实时计算Flink等引擎,提供一站式的数据解决方案。在业务支撑方面,通过数据仓库DW主题建设和Adhoc自助数据查询平台,用户获取数据的效率由过去2~3月降低到目前的天级别甚至分钟级别。数据查询台平采用Hive/Spark/Presto多引擎技术,智能识别分析SQL,路由选择最优的引擎,快速获取查询结果。
在数据治理方面,研发大数据开发治理平台-百川,覆盖数据收集、加工、应用、输出全链路,已管理了全链路上的2万多张Hive表,初步构建了我爱我家的数据资产地图。通过采用sqoop/ogg等数据接入工具提升自动化水平,已实现分钟级批量配置化接入。
在经纪平台系统中的搜索推荐个性化算法能力方面,基于用户在平台上的行为(浏览,咨询,关注,搜索等)进行采集,结合用户行为权重和时间衰减算法将用户对房源的各种行为计算出用户的购房偏好(User Profile)。还通过实时计算技术提升了用户偏好的实效性,使其更能捕捉到用户当前的偏好。在推荐、搜索的策略中,基于计算的用户偏好进行person alized ranking,使得推荐或者搜索返回的房源尽可能地满足用户的购房偏好,进而提升用户的点击率,带来更多的线上商机。
案例主要经济成效和社会成效分析
经纪业务效率及线上竞争力双提升
通过实践经纪业务全链路数字化平台系统运营,集团统一管理城市公司业务运营与线上效率,完善了城市前后台人员配比的合理性,提升了集团经营业务数据密度,通过大数据、 Al放大数据价值,提升经纪业务效率。
结合门店经营理念与数字化手段,借助LBS与我爱我家大数据能力,实现门店智能云图,有效观测评估城市内竞争格局,搭配门店装配智能化系统,对门店经营数字化进行了重大升级。
2022年上半年,我爱我家直营城市整体GTV环比增长42.9%,新增客户带看量环比增长16.3%。2022年第3季度,我爱我家直营业务体系规模稳定,直营业务体系的二手经纪业务 GTV环比2季度增长19.6%,我爱我家官网月均活跃用户数超1877万,相比上半年增长 23.1%,官网APP点击率和线索转化率也明显增加,“甄选好房”智能推荐房源成交去化率提升约20%,互联网平台运营水平和线上竞争力得到进一步提升。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。