时至今日,人工智能已经不再仅仅是科幻小说的模糊概念——而开始真正改变我们的生活、工作乃至存在的方式。作为数据科学、分析以及技术改进与创新所无法回避的终极产物之一,AI拥有极为可观的发展潜能,有些从业者甚至认为有理由跳过传统智能数据技术而直接投资AI方案。
然而,至少单就2017年而言,我们仍有再观望一阵的理由。
1. AI仍不完美
与任何一种潜力巨大的技术产物一样,AI同样吸引到众多投资者、风投人士、初创企业及商业领袖的关注,并做好准备与其工作乃至生活场景相结合。
但问题在于,AI目前仍处于发展阶段,或者说仍需要时间学习并证明自身价值。客观地讲,即使最为先进的AI成果恐怕也要在三年后才能在市场上有所建树。
另外,假定您已经拥有一套极为惊人的AI引擎驱动型演示系统。但如果投资者不能将其接入自己的笔记本,那么一切只能是空谈。
因此AI就目前而言只能算是画出了美妙的大饼,但平心而论其仍然属于利基性产物——直到正式普及之前,任何整合尝试都有可能以失败告终。
2.分析仍然影响巨大
根据Simbla的调查结果,分析仍然拥有旺盛的生命力且能够带来等待发掘的可观价值。作为由数据与信息转向AI算法的通道,分析技术的目标更契合当前分析软件与算法所能达成的效果。
除了URL挖掘及社交媒体报告等基础功能,企业亦开始利用分析方案帮助自身更为灵活地打理数字化业务,包括市场营销与搜索引擎优化等。
能够在作为一切数字化资产基础的二进制空间内运行,意味着未来的分析工作除了提供与市场相关的报告与模式判断结论外,亦将带来更可观的预测能力。
这种预测市场未来动向的能力无疑将吸引更多企业继续坚守分析这一阵地,并在未来两到三年内再逐步向更成熟的AI平台转移。
3.机器学习需要过程
建立业务部门是一种线性过程,而我们目前无法解决其中的一切难题以提供真正完美且能够切实用于整合的AI成果。
作为AI训练素材的当然是数据与分析——而这两大领域仍然在逻辑性与定义结论层面处于摸索阶段。
为了真正发挥AI的优势,我们必须收集大量数据,并构建起能够以直观方式解释信息以实现预测分析的工具。
而直接投身AI无异于没学会走就急着跑。虽然已经在一定程度上成为现实,但AI目前的状况仍远不能令人满意。
4. 潜在分工
尽管我们很难准确预测业务的未来发展态势,但就目前来看,分析、数据与AI几项技术很可能各自独立地实现分工与发展,而非朝着统一的智能化方向迈进。
行业分工确实会带来一些有趣的机遇,特别是对于那些更倾向于投资成熟市场而非尚缺乏实践经验的AI方案的人们而言。
投资者与企业运营者在未来几年内将继续面对此类难题,即是将资金投入到影响力更大且更具实效的分析领域,还是押注在一切尚不确定的要工智能身上。
5.消费者认知
对于企业拥有者而言,在分析与AI之间作出选择主要应考虑到其主要受众的当前状态与认知水平等因素。
年轻些的从业者可能更信任并愿意通过测试了解直观的数字化解决方案。但如果您的营销对象是更为成熟的上一代用户,则采用分析功能也许可以更好地提升业务绩效。
投身于AI确实有种致命的吸引力,但这一方面并不证明分析技术会因此而逐渐消亡; 相反,二者都会不断成长并得到改进。另外,至少就目前来看,分析技术的实效性无疑拥有更为丰富的客观指标作为支持。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。