至顶网CIO与应用频道 09月30日 北京消息:世界领先的独立研究机构Forrester在《2018年第三季度Forrester Wave™分析报告》中,将SAS评为多模态预测分析和机器学习解决方案的领导者。报告称“SAS打造了第一个真正的多模态预测分析和机器学习解决方案”,并称赞SAS完成了几乎不可能完成的工作。
“各个企业机构都急需应对复杂业务问题的解决方案,但是拥有专业技能的杰出数据科学家和分析专家却供不应求。”SAS人工智能与机器学习策略分析师Lorry Hardt表示:“SAS机器学习工具专为提升效率和便捷性而设计,涵盖了将原始数据转化为可实施性洞察的所有必要步骤,可同时满足从数据科学家到业务用户的需求。由于机器学习是人工智能技术的基础,随着越来越多的企业机构拥抱人工智能并期待人工智能带来的美好前景,SAS的专业技术价值也显得愈发重要。”
SAS®可视化数据挖掘和机器学习解决方案为用户提供了一个解决复杂分析问题的平台。基于数据预处理可视化高级分析与模型部署,该方案可以将整个机器学习过程(从数据访问/转换和预处理到评分)整合至一个系统环境中。SAS®可视化数据挖掘和机器学习解决方案在SAS®ViyaTM架构上运行,包含最新的统计、机器学习、深度学习和文本分析算法,可加速结构化和非结构化数据挖掘,同时支持流行的开源语言。
该报告指出:“SAS®可视化数据挖掘和机器学习平台允许用户对可视化机器学习管线和代码进行相互转换,并为自动化机器学习提供集成化的功能。所有这一切都整合在一个流畅的、可视化的、统一的环境中,其中还包含一系列经过精心设计的可视化工具,这些工具还在不断开发、优化中,用于创建模型以及深度神经网络。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。