ZD至顶网CIO与应用频道 06月01日 北京消息:2016年5月31日,中译语通科技(北京)有限公司(以下简称“中译语通”)公布完成B轮2.5亿元融资。在本轮融资中,中国图书进出口(集团)总公司、上海新华发行集团有限公司、上海智德简理投资管理有限公司、上海文化产业股权投资基金和上海朝乾资产管理有限公司等机构参投。通过这轮投资和资源整合,中译语通将进一步加速在跨语言大数据分析服务领域的布局。
中国出版集团公司副总裁 潘凯雄
上海文化产业股权投资基金副总裁 刘彬
朝乾资本执行总裁 杨升东
中译语通成立于2013年,是中国出版集团公司旗下中国对外翻译有限公司的控股子公司,在大数据分析、机器翻译、机器学习、语义搜索和深度神经网络等技术领域进行深入研发与持续投入。据CEO于洋介绍,跨语言大数据是中译语通战略布局的重中之重,在技术研发和海量数据积累的基础上,首度提出“跨语言大数据”概念,并发布“译见”大数据平台,使大数据分析的量级几何式增长,为当前的大数据领域打开了巨大想象空间。
中译语通科技(北京)有限公司CEO 于洋
“译见”是首款跨语言大数据产品,是跨语言的大数据信息搜索与分析综合平台,整合机器翻译、语义分析、智能采编、数据挖掘等十余种当前最先进的自然语言处理、大数据和人工智能技术,是下一代的大数据分析平台。译见可以应用于资讯情报分析、行业调查研究、社会事件监测等众多场景,服务于政府、机构、企业和个人等各用户群,解决采集、分析信息进而洞察事件原因与掌握趋势走向的需求,为决策者提供可靠的跨语言大数据智慧精华。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。