企业需要开发一个新的复杂的数据,人员和思想的生态系统。数据分析将很快不再是专业化人员才能实施,它将成为每个员工的关键业务。
专家表示,美国大选有很多选票的事实是不真实的。这种现象的规模意味着,拒绝虚假信息已经不再有效,因为这些信息被淹没在大量的标题和无用的帖子中。在更广泛的意义上,不仅仅是在政治方面,在工作生活方面也是如此,这可能是由于数据污染的现象。虚拟现实由于具有太多信息而诱惑。来自Qlik公司的专家说,这种现象非常严重,它将在未来几年里定义技术趋势,就像业务一样。当然,这是商业智能领域的情况。
2017年将是开始打击数据文盲的一年,这是传播数据的技能,并理解其分析,验证和选择的过程。2017年的其他发展趋势是更好的洞察力,基于内容的商业智能,以及各级员工日益使用数据分析工具。
数据污染
据估计,到2018年,80%的数据存储将是完全无用的,既没有使用的可能性也没有处理的意义。这与上述数据污染现象直接相关。用于数据存储的基础设施成本低廉,并且广泛可用,因此企业正在产生越来越多的数据。不幸的是,这些数据的价值是有问题的。收集这样的数据通常是为收集而存储的缘故,没有一定的目的和策略,只是一个模糊的想法,它可能证明一段时间以后是无用的。
结果是,即使对于企业重要的信息也常常会消亡扇数据库的黑洞中。这种情况不利于物联网的广泛使用。像每一个伟大的想法,其原本的目的是更好地服务人类的利益,物联网本身正在成为一个讽刺。互联网可以连接到一切物品,收集大量完全无用的数据。行业媒体指出,“互联网”这一具有讽刺意味的术语越来越受欢迎,这基本上意味着观念的即将死亡,至少在他们现在的“小发明”形式中。
基于内容的的洞察和数据可视化
一切都表明未来几年人们将不再迷恋大数据的结束,并开始实现更加清晰的洞察,这是正在处理的数据的重要手段。将有越来越多的这些数据,它会更加微妙。扩展现实和物联网将带来现实世界中数据的语境化,这将能够捕获特定地点和时间的特定事件(人们的行动,决策和行为)。这将进一步模糊物理和虚拟世界之间的边界。游戏PokemonGo(口袋妖怪)就是这样一个例子。这也意味着业务分析将需要超过这种限制。
数据分析必须基于越来越广泛的背景。否则,企业将有在虚拟泡沫中操作的风险。现在社交网络研究人员观察到已有类似的现象,他们注意到用户在彼此相似的友好的环境中操作,根据所做的选择(喜欢的数目)访问所选择的信息,并通过偏好算法计算。这就是所谓的过滤气泡。当然,由此产生的现实的形象在许多方面是虚假的,扭曲的,甚至是有害的,因为这意味着人们的选择影响提供给信息的内容。
对于企业来说,这种情况同样危险。在其自身数据范式所创造的商业现实中运作的企业将不能满足客户的期望,市场情况,以及很难摆脱金融灾难。另外,企业完全不知道这种危险,因为,当然,它使用最现代的IT解决方案。
其结论是显而易见的。仅仅分析他们自己的数据是不够的。更重要的是将这些数据与外部数据进行对照,并在决策过程中考虑到这一点,即使(当可能特别)这样的数据使人们感到不舒服,干扰了人们的视野。
数据分析的民主化
一方面,我们必须决定要收集什么样的数据,但另一方面,人们必须学会阅读数据。在企业,它将意味着传播商业智能工具。这到底意味着什么?使用高级分析工具不再是顶级管理人员专用,还必须向所有能够更有效地执行其任务的员工授予访问权,这要归功于使用数据。
不仅如此,分析计划(即如何以及要分析什么)必须是自下而上的,因为每个员工都知道他们的经营领域最好,知道什么数据是最有用的。员工还增加了他或她自己的工作,一个独特的视角,这显著降低了在虚拟过滤器泡沫中包围决策者的风险,扭曲了现实。企业必须开发一个新的复杂的数据>人>思想的生态系统。IT部门必须是这方面的中心,并且必须与提供相关数据和处理机制方面的任务相同。
这显然是一个更复杂的任务,而不是简单地实现适当的商业智能工具。实际上,企业家应该在获取,分析和使用工作数据的框架内改变他们的业务运作,并专注于员工的教育(培训)。数据分析将很快不再是仅限IT人员的狭隘专业化。它将成为每个员工的关键能力。数据分析将被视为与语言技能一样重要,没有这个技术技能,将来员工在现代公司的就业几乎是不可能的。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。