今年年初,连续七年担任SOLIDWORKS首席执行官的Gian Paolo Bassi出任了达索系统3DEXPERIENCE Works部门执行副总裁。
这也是因为SOLIDWORKS在近几年的重大方向变化,达索系统在延续SOLIDWORKS在桌面端优势的同时,通过可扩展的3DEXPERIENCE Works解决方案为用户提供价值。并且从去年开始,3DEXPERIENCE Works就已经开始在大中华区面向终端客户进行销售。
SOLIDWORKS一直在践行着自己的战略目标,最近SOLIDWORKS也推出最新版本——SOLIDWORKS 2023,其中包含用户驱动的全新增强功能,方便用户能够在更短的时间内完成更多的工作,提升工作效率。
塑造竞争力的三个因素
SOLIDWORKS一直在保持创新和稳定性,2005年吴俊杰加入SOLIDWORKS大中华区成为第三任总经理,那时记者问过他一个问题,作为一个非土生土长的华裔,他在中国会遇到哪些挑战?
达索系统SOLIDWORKS大中华区销售副总裁吴俊杰给出的回答也很简单,他需要更加熟悉市场,熟悉合作伙伴,这样才能帮助达索系统和SOLIDWORKS更好地部署和服务本地客户。
达索系统SOLIDWORKS大中华区销售副总裁吴俊杰
17年来,SOLIDWORKS在业界建设了非常规范的渠道,本地代理商只做本地客户的生意,专人专事能够确保SOLIDWORKS丰富的模块能够有效地导入、实施,帮助客户实现成功。
“中国市场非常大,每个地区地区的购买习惯、信息化接受程度都不尽相同。”吴俊杰说,要确保做事的方式能够抓到这个区域的差异化,以量身定制的方式来帮助客户满足信息化的需求。”
2015年SOLIDWORKS中国又将团队划分为以SOLIDWORS为主(CAD),和非SOLIDWORKS的组织机构(NON-CAD),更好地实现专人专事。随着组织架构的调整,2017年SOLIDWORKS又推出了“335服务包”,即:三年携手共进包、三年卓越进取包、五年战略协作包,帮助企业提升研发创新能力,促进企业数字化转型。
同时达索系统的企业文化也是其优势之一,抱着中长期思维管好市场,抱着共赢的态度与合作伙伴建立中长期的合作,帮助客户实现数字化的目标。
总结下来,SOLIDWORKS一直在打造三个层面的竞争力,第一,以产品、价格、服务为代表的外部竞争;第二,以渠道为代表的核心竞争;第三,以商道为代表的本质竞争。
新版本,新策略,新思路
达索系统一直以来都在引领制造、生命科学、基础设施三大领域的创新,建立12大品牌,服务12个行业。SOLIDWORKS就是其中的一员,一直以来都在为客户提供真实的社群体验,以及简单易用、功能强大的三维工具。
新发布的SOLIDWORKS 2023版本,包含了三个方面的用户驱动全新增强功能。
提高工作智能化程度。在设计大型装配体和出工程图详图时减少人为工作量,并能够处理更复杂的电气布线场景。
提高工作速度。更高效地处理材料明细表(BOM),提高搜索和保存装配体的性能,并更快地设计大型装配体。
协同工作。通过简化用户界面、减少延迟和提升 SOLIDWORKS PDM 中的升级性能,帮助团队更高效地共享和管理数据。通过自定义 PDM 通知模板的功能,更好地传达设计数据的更改。
同时SOLIDWORKS 2023进一步增强用户的设计流程与3DEXPERIENCE云平台的连接,充分利用达索系统3DEXPERIENCE云平台的协作功能,增强三维CAD能力,以获得能够支持整个产品开发生命周期的众多工具,包括数据管理、协作、高级仿真、制造和生产等,使现有产品和创新型新功能得到改进。
达索系统SOLIDWORKS大中华区技术总监戴瑞华表示,3DEXPERIENCE Works是下一代设计解决方案,它继承了传统SOLIDWORKS功能强大、易学易用、直观的能力,在这个基础上融合了基于云端的设计工具、云端的设计管理,而且也非常易于部署和使用,同时它着重强调企业内部跨部门的协同,为企业更好地加速创新。
达索系统SOLIDWORKS大中华区技术总监戴瑞华
好文章,需要你的鼓励
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。