人工智能(AI),尤其是生成式 AI(GenAI),正在改变各类行业的“游戏规则”。麦肯锡研究显示,生成式AI有望为全球贡献约7万亿美元的经济价值,并将AI的整体影响提高近50%。其中,中国将有望贡献约2万亿美元,近全球总量的1/3。AI 的应用速度也仍在加快,Cloudera对亚太地区IT领导者的调查显示,预计到 2026 年,亚太地区将有 57% 的企业处于AI早期应用阶段。
然而,在这些积极信号背后,政府和企业领导者也表示出对于信任缺失的担忧。信任度的降低将持续影响着 AI 的普及速度。技术领导者必须思考如何在释放 AI 价值的同时,有效管理潜在挑战。这些挑战包括偏见管理、数据隐私保护、治理机制完善,以及非结构化数据与大语言模型(LLM)的集成等。这些挑战至关重要,因为关系到企业自身、客户以及更广泛的社会安全。
在应用 AI 时,需要考虑很多因素。在某种程度上,这也是问题所在,即究竟该从 AI 开始,还是从数据切入。
构建符合伦理的 AI 系统需要可信数据
伦理型 AI(Ethical AI)这一概念,用于描述在 AI 平台和流程中必须考虑并纳入的一系列核心原则,包括问责制、透明度和治理机制。要构建值得信任的 AI 系统,企业必须拥有可信的信息来源。以准确、一致、干净、无偏见且可靠的数据基础,经过伦理设计的企业AI 系统才能持续产出公平且无偏见的结果,企业也能更轻松地识别问题、弥补逻辑漏洞、优化输出结果,并评估其创新成果是否符合法规要求。
企业可参考以下建议,帮助构建伦理型 AI 系统:
大语言模型:解读新的游戏规则
大语言模型(LLM)是持续重塑数字领域的 AI 应用场景之一,也凸显了使用可信数据的重要性。
大语言模型的优势众多,包括可执行多样化任务,能够以更低成本、更快速度开发 AI 解决方案。这对于追求更快价值实现周期的企业而言十分关键。大型语言模型还能帮助用户处理海量数据并按需扩展,洞察传统数据分析方法难以发现的趋势和模式。
但与此同时,企业也需要警惕其潜在风险。例如,在使用大语言模型时,幻觉问题和算法偏见都可能引发问题。企业要保持高度警觉,因为这些问题可能导致不可信的结果。
一种可行的解决方案是平台化建设,即从基础层到基础设施开始逐步构建,自下而上逐步构建。尽管预训练的基础模型具备强大能力,但由于数据的多样性和海量特性,模型的部署与扩展仍面临巨大挑战。相较于单纯创建模型,平台建设也凸显了大语言模型 如何融入企业流程以实现更大效益,这种需求正日益凸显。
在伦理型 AI 之路上持续前行
企业监理正确的数据使用意图,应当站在客户角度思考。所以,企业应该问自己一个问题:“如果是自己的数据以这种方式被使用,是否会感到安心?”
如果答案是否定的,这就是一个明显的警示信号。如果答案是肯定的,那么这很可能就是正确的起点。
当技术领导者充分理解数据使用的意图,并设计出兼顾伦理原则与实践的AI框架时,他们不仅将在竞争中领先一步,更重要的是,他们是在做正确的事情。
好文章,需要你的鼓励
绿米推出智能门锁U400,采用超宽带技术检测携带iPhone或Apple Watch的用户实现全自动解锁。该产品支持苹果钱包添加家庭钥匙,兼容Siri语音控制。除UWB解锁外,还提供实体钥匙、指纹识别、密码等多种开锁方式。基于Thread协议需配合兼容设备使用,要求iPhone 11及以上版本或Apple Watch Series 6及以上。售价270美元,现已在美国等地上市。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
热门AI驱动的VS Code衍生工具如Cursor、Windsurf等被发现推荐Open VSX注册表中不存在的扩展程序,为恶意攻击者发布同名恶意软件包创造机会。这些IDE继承了微软扩展市场的官方推荐列表,但这些扩展在Open VSX中并不存在。攻击者可利用此漏洞上传恶意扩展,当开发者安装推荐扩展时可能导致敏感数据泄露。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。