至顶网CIO与CTO频道 01月19日 编译:医疗保健数据年增长率预计至2025年将达36%,比其他如制造业、金融服务、媒体和娱乐行业都更快。而近在11年前,肠道非急性护理医院只有9.4%的医院配有有基本的电子健康记录(EHR)系统。
数据大量涌现的时机目前对医疗保健来说颇为不利,皆因医疗保健领域正发生两个根本的变化,其一,大家现在都在尽量获取、解释和共享电子健康记录(EHR)的大量数据,要扯电子健康记录的话大可以写另一篇专栏文章。其二,医生和医院的支付模式也在不断变化。
以前,医院所提供的服务严格按服务次数付费,又名缴费服务(FFS)模式。Medicare和Medicaid服务中心(Centers for Medicare and Medicaid Services ,缩写为CMS)以及私人健康保险公司现在尝试用基于价值的保健支付计划控制医疗保健费用,基于价值的保健支付计划又名缴费价值(FFV)支付,FFV支付根据医院和医生所提供的医疗保健服务质量和效率付费。
要灵巧地管理这些变化的影响,有关机构需要注意一些关键财务和运营指标。在这方面,大多数医疗卫生系统已经在着手处理各种护理质量、患者总体数量和支出数据来衡量性能等,但却通常忽视了另外三个关键数据点。三个关键数据点是:吸引患者、留住患者和召回患者。这三个关键数据点可以为医疗系统在实现其财政和护理质量目标以及未来的取向提供一个高度精确的快照。
几十年来,许多医院和卫生系统都对吸引患者一事不关心,因为门口的病人总是源源不断。最近,尽管许多市场经过整合,吸引一部分特别患者的竞争在增加,这些患者用的是商业健康保险计划,他们与报销额较低的Medicare及Medicaid不一样。事实上,根据医疗保险支付顾问委员会最近一份报告的资料,甚至高效医院在Medicare患者上花费的钱比赚到的钱还多2%。然而,如果一个机构通过CMS加入FFV计划,许多Medicare和Medicaid患者的结果和支出可以直接影响到其卫生系统的基线。
在这一块,数据和分析可以发挥重要的作用。对于大卫生系统来说,患者可以从社区医院转到自己系统里的专业(如心血管疾病或中风)医院可以是一种吸引新病人的方式。笔者曾在一些卫生系统里工作过,这些系统里面没几个系统会去跟踪和分析转到他们的专业医院的患者资料,例如患者是从哪里转来的,或是没有被吸引来而被竞争对手抢走的病人数目。跟踪和分析这些信息可以提供改进机会的信息,可以帮助健康系统推动FFS和FFV支付及可以确保为患者提供好的结果。
患者进了卫生系统的医院又出了医院,相应的机构需要将患者的资料存在医院内部和门诊设施网络里以便将来使用,额外的FFS支付以及FFV都是理由。例如,2019年里近1100万的医保患者参与了518责任关怀组织(ACO)计划,ACO计划基本上就是一批医院及诊所签了协议同意为这些患者提供服务及共享得到的收入。如果计划里一些病人接受不必要的服务,而其他人又因为花的钱未超额及满足了服务质量标准开支获得金融奖金(名为共享节省激励),那么ACO的这个计划就有可能赔钱。也就是说,即使病人去竞争对手那看病,ACO计划的参与患者最后得为竞争对手交付的服务买单,即便这些服务是多余的、重复的或不必要的治疗还是得买单。
对病人的病历、医疗保险索赔、商业承保人索赔以及相关信息进行研究和分析可以帮助卫生系统掌握各种趋势,例如卫生系统在留住系统内患者方面做得如何以及确认哪些机构或专业的患者最容易流失。有些卫生系统流失患者可能是因为病床不够用而转院或是因为社区医院的急诊医生的审批或咨询拖得太久。无论是哪一种情况,从数据得到的洞察可以帮助卫生系统将重点放在改善留住患者的机会上。
3、找回患者
同样,分析索赔和其他数据也可以显示有必要去找回或“召回”哪些病人,在卫生系统里为他们管理健保和成本。至于花在找回这些患者的力度可能取决于多种因素,例如他们在竞争对手那获得的医保类型或是患者是否隶属卫生系统的ACO。根据卫生系统的目标可以从数据里确定患者的优先级别。
召回行动可以是事先安排的与初级保健医生的会面、在病人家的远程医疗探视,或者直接给护士或其他医疗人士打电话。重点是让病人知道卫生系统及其供应商在患者的健康目标上是一致的以及希望确保他们继续得到高质量的服务。
医疗数据在不断地积累,务必以这三个数据点为出发点并检视其在卫生系统提供的优势。检视三个数据点从时间管理角度上不仅高效而且改善有关的相关指标也可以支持卫生系统的目标,无论支付模式或医疗行业发生别的变化时都是这样。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。