Adobe(Nasdaq:ADBE)推出全新的创意生成式人工智能(AI)模型集 Firefly,将首先聚焦于图像生成和文本效果。Firefly将让Creative Cloud、Document Cloud和Experience Cloud工作流程中的内容创作和修改变得更精准、更强大、更快速和更轻松。Firefly将成为跨Adobe 云端产品的全新Adobe Sensei生成式AI服务的一部分。
Adobe在 AI 创新方面拥有超过十年的历史,通过Adobe Sensei 将数百种智能功通过应用程序提供给数以亿计的客户。得益于Photoshop中的神经网络滤镜(Neural Filters)、After Effects 中的内容感知填充 (Content Aware Fill)、Adobe Experience Platform 的Attribution AI(人工智能归因),以及Acrobat 的Liquid Mode等功能,Adobe的客户可以以更强大、更精准、更快速和更轻松的方式,创作、编辑、衡量、优化和审阅数十亿条内容。这些创新功能的开发和部署均符合Adobe负责任、有承担和高度透明的 AI 道德原则。
Adobe 数字媒体业务总裁 David Wadhwani表示:“生成式人工智能是由AI主导的创造力和生产力的下一个演变,让创作者和计算机之间的对话变得更自然、更易用和更强大。借助 Firefly,Adobe 将把AI 驱动生成的‘创意成分’直接引入客户的工作流程,提高所有创作者的生产力和表达力,从顶端的创意专业人士到大范围的创作者经济均能受益。”
Adobe Firefly:赋予创作者新的超能力
Adobe 正在设计的Firefly为所有创造者都赋予了“超能力”,让他们的工作速度如想象一般快速。在Firefly的支持下,无论是何种经验和技能水平的内容创作者,都能按自己的语言生成理想的内容,从图像、音频、矢量图、视频和3D到诸如画笔、色彩渐变和视频转换等创意成分,都比以往任何时候更快捷、更轻松。有了Firefly,创作者可以不受限制地制作多样化的内容,并基于品牌形象快捷、简单地进行多次修改。Adobe还将Firefly直接整合至其行业领先的工具和服务中,确保用户可以毫不费力地在其现有的工作流程中应用生成式人工智能所带来的强大力量。
Adobe 今天还推出了Firefly的测试版,展示拥有不同经验和技能水平的创作者如何生成高质量的图像和一流的文案效果。Adobe 认为,如果没有强大的想象力来推动,技术就无法发挥其威力。通过测试,Adobe将与创意社区和客户沟通,在发展这个颠覆性技术的同时,开始将之整合至旗下的应用程序中。首批与Firefly整合的应用程序将会是Adobe Experience Manager, Adobe Photoshop 和 Adobe Illustrator。
专为商业用途安全使用的高质量图像
Firefly 将由多个模型组成,为具有广泛技能和技术背景的客户提供服务,适用于不同的应用场景。Adobe的第一个模型是基于Adobe Stock素材库、公开许可内容和版权已过期的公共领域内容训练的,将专注于图像和文案效果,旨在生成可安全用于商业用途的内容。Adobe Stock 拥有数以亿计的专业级且获许可的图像,是市场上具备高质量素材的图像库之一,有助于确保 Firefly 不会根据其他人或品牌的 IP 生成内容。未来的 Firefly模型将运用来自 Adobe 和其他公司的各种资产、技术和培训数据。在发展其他模型时,Adobe 将继续将应对潜在的有危害性的偏见作为优先考虑事项。
以客户为本方针
Adobe 正在设计生成式人工智能,以助力创作者从他们的技能和创造力中获益:
好文章,需要你的鼓励
随着大语言模型在人工智能时代展现强大力量,可穿戴设备成为收集人体数据的重要载体。通过实时监测血压、心率、血糖等生命体征,结合AI边缘计算能力,医疗正向个性化转型。基因治疗、数字孪生技术让每个人都能拥有专属的医疗数字化身,实现从"报销型医疗"向"创新循证医疗"的转变,为疾病预防和健康管理带来革命性突破。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
在巴黎举办的欧洲开放基础设施峰会期间,专门用一整天时间讨论VMware迁移问题。博通收购VMware后许可证价格上涨,导致客户运营成本大幅增加。开源开发者展示了将VMware虚拟机迁移到开源替代方案的产品。Forrester分析师指出VMware客户对此感到信任破裂。OpenStack等开源解决方案虽然复杂度较高,但提供了健康的开源生态系统替代方案。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。