ZD至顶网CIO与应用频道 06月06日 北京消息:全球领先的生命科学临床研究领域云解决方案供应商Medidata(纳斯达克股票代码:MDSO)今日宣布,公司凭借与全球领先研发型制药和医疗保健企业葛兰素史克联合发起的移动医疗计划,在首届临床研究卓越(CARE)大奖颁奖典礼上被评为2016年“年度最佳临床合作伙伴”。
Medidata 和葛兰素史克的合作开发项目评估在临床试验环境中将移动医疗设备与云技术相整合的影响。该项合作开创了能够变革药物开发的领先方式,从而使试验更有效率、识别“数字生物标志物”、并带来对治疗效率和患者健康的更深见解。
葛兰素史克研发创新、绩效和技术部副总裁Julian Jenkins 先生表示:“我们相信这类技术能够帮助我们更好地了解患者对药物的反应,在不增加临床试验参与者负担的前提下,更贴切地满足患者需求。”
CARE 大奖由Informa 机构旗下的全球领先的临床研究信息和分析的供应商Pharma Intelligence主办,Informa 旗下还包括Scrip Intelligence, In Vivo 和Pink Sheet 等领先品牌。该奖项旨在表彰生物制药行业内的卓越表现与创新,以及持续致力于改善全球医疗保健领域。由来自全球的独立资深行业专家组成评审团,于波士顿举行的颁奖典礼上,将此项殊荣授予Medidata 和葛兰素史克。
通过从每个研究对象每天的活动和生命体征上收集1800 万个数据点,Medidata 和葛兰素史克展示了移动医疗技术能够全面地收集大量可靠、安全和可供分析的客观数据,并针对患者的身体状况提供实时、持续的观察。
Medidata 首席运营官Mike Capone 先生表示:“我们与葛兰素史克的合作项目起源于一个共同愿景,即移动医疗技术能如何从根本上变革我们进行临床研究的方式,提高患者参与和加速药物开发中的创新。通过将移动医疗设备与Medidata Clinical Cloud 整合,我们已经证明了这项技术的存在,可以安全、有效地为患者提供诊断设备,收集客观、高品质信息,并采集丰富、全新的数据。”
Medidata 和葛兰素史克为项目研究对象提供两个可穿戴设备。Vital Connect 的HealthPatch®MD 和ActiGraph 的wGT3X-BT Monitor 持续测量生命体征、心电图数据和活动水平。此外,研究对象也使用一款由Medidata 行业领先的技术平台提供的移动应用软件Medidata Patient Cloud ePRO(电子患者报告结果)。研究对象通过携带智能手机,从移动医疗设备处采集数据,将这些数据导入Medidata Clinical Cloud®平台,再把它们映射入临床记录当中。研究对象的日常生活
不受影响,只需分别于项目开始和结束时在葛兰素史克的Human Performance Lab 平台签到。
Capone 先生补充道:“随着我们与葛兰素史克持续努力从这些数据中获取有意义的见解,我们预见到未来移动医疗研究将成为实践标准,临床试验将变得更快、更便宜、更以患者为中心。我们致力于为生命科学公司奠定基础,帮助他们探索移动医疗带来的各种令人振奋的可能 – 包括更好的决策、更好的试验结果、以及最终更好的患者诊疗方案。因此,我们为获得这项由Informa颁发的行业大奖而感到自豪。”
除获得“年度最佳临床合作伙伴”殊荣以外,Medidata 的MOVE 研究也进入“最佳患者导向技术开发”奖项类别决选。在这一行为研究中,Medidata 测试了移动医疗工具能否应用在患有二型糖尿病的超重成年人身上以达到更好的医疗结果。这项试点开放式临床试验是Medidata 致力在运行、技术和监管影响下工作的重要一步,将移动医疗设备和工具整合进临床试验,并最终衍生一个药物开发的新模型,从而更快地执行研究和以更低的成本满足患者需求。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。