至顶网CIO与应用频道 06月20日 人物访谈(文/王聪彬):中信戴卡每天可以产生两款新产品,一款新产品投入量产,铝车轮达到5000多万只,这样的速度为之惊叹。
这正是因为中信戴卡在竞争激烈且多变的市场中,不断探索提升设计、仿真来满足市场多元化的需求,尤其在轻量化和新材料等新型需求上的积极应对,得到了市场的良好反馈。
中信戴卡股份有限公司是中国中信集团公司于1988年投资组建的中国大陆第一家铝车轮制造企业,前身是戴卡轮毂制造有限公司。2007年10月,进行股份制改造,2012年8月,正式更名为中信戴卡股份有限公司。
需求多元化也能一一应对
中信戴卡经历了产品差异化、开拓OEM市场、集团化商业模式创新、产业规模跨越发展及多元化、国际化五个发展阶段,目前是全球最大的铝车轮和铝制底盘零部件供应商、国内汽车零部件行业出口量第一、全球汽车零部件一百强第七十一名。
中信戴卡股份有限公司、工程技术研究院副院长徐世文从1998年就进入中信戴卡,主要从事汽车铝车轮的开发。中信戴卡工程技术研究院已完成全球研发布局,积极开展新材料、新工艺研究,卓越的同步开发能力,24小时无间隙研发设计、试验,充分实现了造型理念到产品实物的无缝转化,使生产率大幅提升,为客户提供强大的绿色轻量化铝车轮和铝制零部件制造的整体解决方案。
汽车行业的竞争可谓异常激烈,对于车轮的设计主机厂正在不断提出更高的要求,其中有几个共性。第一、尺寸越来越大;第二、正面造型款式呈多元化。徐世文表示,这些需求对设计和工艺都提出了更多要求,从原来的几十种技术手段到现在三百多种技术手段来满足多元化和个性化。
当然主机厂的需求也呈现出多元化发展,尤其随着汽车排放标准的逐年收紧,需要达到经济的燃油性,所以主机厂不断提高对产品轻量化的需求。中信戴卡形成了三方面轻量化体系,从设计上,通过达索系统软件从正向设计、结构优化;从材料上,使用铝合金、美铝合金复合材料;从工艺上,开发全套成型工艺。
中信戴卡通过对市场趋势和客户要求的结合,对内部开发能力、装备能力、工艺制造能力都进行全面提升,同时借助像达索系统这样的外部合作伙伴,建立整体供应链生态圈应对行业和客户需求。
需求和发展的双向支持
中信戴卡在设计、仿真上的需求非常明确,即达到结构最优、工艺也最优、缩短开发周期、实验次数。从2003年开始,中信戴卡就开始与达索系统合作,其保证了新产品开发的顺利完成。目前达索系统的使用量占到中信戴卡整体的60%,主要使用产品造型、结构设计、仿真三大应用。
同达索系统的合作也是基于需求和发展两方面需求,第一、车轮产品要做高精度造型;第二、客户上传格式需求,尤其是欧洲和日本市场。所以在2003年首先采购了CATIA V4,现已升级到V5R22。
徐世文表示,在产品开发后的物理实验时,产品可能会出现一些问题,这就要求我们重新修改结构设计和工艺,达索系统将这个周期缩短了1.5倍,提前进行仿真和结构设计。
在应对市场的新需求时,中信戴卡也在不断的完善自我。2017年中信戴卡要求对产品疲劳寿命进行准确预判,达索系统很快给出了解决方案并提供相应支持,通过建立新的数学模型来完成设计仿真任务,使得产品在后期的开发可以顺利进行。
未来轮毂行业还有很大的发展空间,尤其是符合材料的投入生产,以及工艺的不断演进。中信戴卡有着自己的质量体系,对于所有的产品都会进行内部的测试和验证流程,进而投入使用,尤其对于车轮产品需要达到关键部件认证体系。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。