12月22日消息,中国全无人驾驶RoboTaxi领跑者AutoX(安途)首次对外揭晓AutoX RoboTaxi超级工厂内部视频,展示中国首个真正全无人驾驶RoboTaxi生产线。
今年7月,AutoX正式发布第五代无人驾驶系统AutoX Gen5,搭配全球最高清的车规级传感器,自研核心计算平台AutoX XCU和自动驾驶域电子电气架构,算力达2200 TOPS,实现车规级别功能安全的全栈架构冗余,保证真正全无人驾驶能力。
该超级工厂正是为量产AutoX第五代RoboTaxi所建—— AutoX与国际车企巨头克莱斯勒FCA深度集成合作,具备车规级冗余线控,也是中国目前唯一可支持量产真正无人驾驶的车型。
“依托中国首个全闭环的RoboTaxi产线,AutoX能够保证每一台无人车生产的质量和一致性,这是真正全无人RoboTaxi落地的前提。” AutoX创始人及CEO肖健雄表示。
AutoX全无人RoboTaxi产线
视频链接:https://v.qq.com/x/page/o3314h1r8ar.html?n_version=2021
中国首个全无人RoboTaxi产线,追求极致安全、先进、一致性
本次发布的视频,用短短两分钟展现了一台AutoX第五代全无人RoboTaxi诞生的全过程。
原本藏身于AutoX第五代无人车后备箱之内的车载超算平台XCU、第五代“性能怪兽”多传感器系统、车规级热管理等一一呈现;
产线上的机械臂
全无人RoboTaxi的大脑、眼睛、神经、心脏、骨骼、肌肉悉数亮相;
放置主传感器
AutoX XCU
AutoX选择了江苏常州建设首个生产基地,其全无人RoboTaxi产线历经三代全线优化,确保每一台RoboTaxi量产集成的精准度和一致性。
产线全貌
AutoX Gen5系统具备极致性能,由AutoX完成全栈软硬件一体化自主研发。
零部件进入仓库的第一步即需通过严格的质量检测。而后,通过质量检测的零件走上部装线,进行局部集成:第五代系统的双主多传感器融合系统、盲区多传感器融合系统等均在部装线上完成。
总装线由大型半自动化滑板传输线和吊装输送线构成,专为全无人RoboTaxi组装工艺定制,采用具有同行领先水准的ABB 7轴机器人,西门子、欧姆龙、施耐德、飞利浦、三菱、SEW等国际巨头提供电控系统与传动系统,将全无人RoboTaxi核心工艺标准化、数字化。
每一台RoboTaxi经过标准化产线生产,进入最后PDI出厂前检查时,Gen5无人驾驶系统已被“点亮”,工作人员从车内操作界面对Gen5系统的全部软硬件模块进行质检。
一台Gen5 RoboTaxi从产线下线,立即走上车间内自建的自动化多传感器标定转盘、四轮定位等标定设备,并在厂内完成恒温房、喷淋房等车规级检测,在出厂时即可进入无人驾驶状态。
标定
车规测试
可以说,这条全无人驾驶RoboTaxi产线全方位呈现了AutoX在智能制造方面的颠覆式创新和技术领先优势,为中国实现L4-L5级别自动驾驶量产规模化开疆拓土。
AutoX第五代RoboTaxi产线下线
专注全无人RoboTaxi,软硬件结合领跑行业
与大多数自动驾驶公司多细分赛道布局、多条腿走路的策略不同,AutoX始终专注聚集于打造真正全无人的RoboTaxi,在RoboTaxi赛道上取得了无数个第一的光环:
在软硬件一体化深科技领域,AutoX一路领跑,此次在智能制造方面的重大突破,又一次展示了中国全无人RoboTaxi的正确打开方式,为业界树立了新的标杆。
今年发布的AutoX Gen5搭配28个超高分辨率车规级摄像头、全球最高分辨率的4D毫米波雷达、角分辨率达到0.9度、高清激光雷达、每秒超1500万点云成像,再加上自研核心计算平台AutoX XCU和自动驾驶域电子电气架构,刷新了中国RoboTaxi的标准,性能可与全球无人驾驶领域尖端玩家相媲美。
而具有量产能力的超级工厂,在进一步展示AutoX的硬件研发实力的同时,更展现了其硬科技智能制造能力,正持续推动第五代AutoX RoboTaxi的部署落地。
相较于仅做软件供应商的自动驾驶公司,AutoX在“硬科技”的投入越来越深,此次在真正全无人级别智能制造产线上的重大突破,更展示出其坚定投入规模化真正无人RoboTaxi硬核科技的决心,以及对质量、安全性的极致要求。
感知、算力、软硬件一体化、长期的无人驾驶数据积累,共同构成了AutoX的极高安全性护城河;AutoX全无人RoboTaxi超级工厂投入量产,则意味着中国全无人RoboTaxi按下了加速键。
目前,AutoX拥有近1000人规模研发团队,在北京、上海、广州、深圳、硅谷全球五大研发中心持续加速招聘科研人才。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。