2023年11月3日,昆仑万维“天工”大模型通过《生成式人工智能服务管理暂行办法》备案,面向全社会开放服务!
用户在应用商店下载“天工APP”或登陆“天工官网”(www.tiangong.cn)均可直接注册使用。
「天工」是国内首个对标ChatGPT的双千亿级大语言模型,也是一个AI搜索引擎,一个对话式AI助手。「天工」拥有强大的自然语言处理和智能交互能力,能够实现个性化AI搜索、智能问答、聊天互动、文本生成、编写代码、语言翻译等多种应用场景,并且具有丰富的知识储备,涵盖科学、技术、文化、艺术、历史等领域。
2022年12月15日,昆仑万维在北京举行AIGC技术发布会,发布自研AIGC全系列算法与模型,覆盖了图像、音乐、文本、编程等多模态的AI内容生成能力。
2023年4月17日,昆仑万维正式发布自研千亿级大语言模型“天工”,同时宣布启动邀请测试。“天工”用过通过自然语言与用户进行问答式交互,AI生成能力可满足文案创作、知识问答、代码编程、逻辑推演、数理推算等多元化需求。
2023年5月19日,北京市经济和信息化局公布第一批《北京市通用人工智能产业创新伙伴计划成员名单》。昆仑万维凭借在AIGC领域的前沿探索和投资布局,成为第一批模型伙伴和投资伙伴。
2023年8月23日,昆仑万维推出国内第一款AI搜索产品——“天工AI搜索”,并开启内测申请。“天工AI搜索”深度融合AI大模型能力,通过人性化、智能化的方式全面提升用户的搜索体验,为用户提供快速、可靠的交互式搜索服务,并集成AI对话、AI写作等常用功能,帮助用户提升工作效率,全面重塑中文搜索体验。
2023年9月,昆仑万维多模态大模型Skywork-MM在腾讯优图实验室联合厦门大学开展的多模态大语言模型测评MME中,综合得分排名第一。该评测首次对全球范围内MLLM模型进行了全面定量评测并公布了16个排行榜,包含感知、认知两个总榜单以及14个子榜单。Skywork-MM模型位列综合榜单第一,其中,感知榜单排名第一、认知榜单排名第二。
2023年9月16日,在权威推理榜单Benchmark GSM8K 测试中,昆仑万维“天工”大模型以80%的正确率脱颖而出,大幅领先GPT-3.5(57.1%)和LLaMA2-70B(56.8%),这标志着天工的推理能力达到全球领先,接近GPT-4。
2023年9月17日,昆仑万维通过信通院“可信AI”评估,并被评选为人工智能实验室副组长单位。经中国信通院评估,昆仑万维天工大模型符合AIIA/PG 0071-2023、AIIA/PG 0072-2023评估标准,模型开发、以及模型能力均达到了“4+级”。
10月30日,昆仑万维开源百亿级大语言模型「天工」Skywork-13B系列,并配套开源了600GB、150B Tokens的超大高质量开源中文数据集。「天工」Skywork-13B系列目前包括130亿参数的两大模型,Skywork-13B-Base模型、Skywork-13B-Math模型,它们在CEVAL、GSM8K等多个权威评测与基准测试上都展现了同等规模模型的最佳效果,其中文能力尤为出色,在中文科技、金融、政务等领域表现均高于其他开源模型。同时,昆仑万维「天工」Skywork-13B系列大模型全面开放商用——开发者无需申请,即可商用。
一直以来,昆仑万维致力于在AIGC模型算法方面的技术创新和开拓,致力于降低AIGC技术在各行各业的使用和学习门槛。通过《生成式人工智能服务管理暂行办法》备案后,昆仑万维将面向全社会开放AI服务,持续推动天工大模型及AIGC业务迈向新高度,提高多款生成式AI产品的用户体验,探索未知世界、创造美好未来。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。