如今,大数据应用程序比常规应用程序复杂10倍,开发人员通常需要了解大量的技术,以使大数据能够正常工作。
大数据的应用仍然太难了。尽管有很多的炒作的成分,但大多数企业仍然努力从他们的数据中获得价值。而Dresner咨询服务公司得出结论:“尽管长时间的意识培养和炒作,大数据分析的实际部署目前并不广泛适用于大多数组织。”
这是人员的问题。尽管有说服力的数据,企业高管们往往宁愿忽略这些数据。但是,大数据复杂性的一大部分是因为所需要的软件。虽然Spark和其他更新的系统已经改善了轨迹,但大数据基础设施仍然太难了,这是杰西·安德森精明的一点。
实施起来困难
长期以来,人才一直是大数据采用的最大障碍之一。2015年Bain&Co.公司通过对高级IT主管调查发现,59%的受访者认为他们的公司缺乏对数据和业务有意义的能力。调查机构Gartner公司分析师尼克•荷德科特别指出,“到2018年,由于技能和集成的挑战,70%的Hadoop部署将无法满足成本节省和收入目标。”人员的技能很重要,换句话说,相关人才供不应求。
随着时间的推移,人员的技能差距将会减少,当然,但是了解平均Hadoop部署是不平凡的。安德森指出,大数据的复杂性归结为两个主要因素:“你需要掌握10到30种不同的技术,只是为了创建一个大数据解决方案。而采用分布式系统是比较简单的”。
问题是什么
安德森表示典型的移动应用程序与Hadoop支持的应用程序的复杂性,注意后者涉及“盒子”或组件的数量的两倍。然而,用简单的词语表达,“Hadoop解决方案的'HelloWorld'比其他域中到高级设置更复杂。
安德森说,人们面临复杂的困难,是需要了解涉及的广泛的系统。例如,人们可能需要知道10种技术来构建大数据应用程序,但这可能需要熟悉另外20种技术,只需知道在给定情况下使用哪种技术即可。否则,例如,你将如何知道使用MongoDB而不是Hbase?还是Cassandra?或neo4j?
此外,在分布式系统中运行有其复杂性,而大数据的技能短缺依然存在。
简单的出路
企业正在努力尽量减少在大数据构建中所固有的复杂性的一种方法是转向公共云。根据最近的Databricks对ApacheSpark用户的调查,Spark到公共云的部署在过去一年中增长了10%,达到了总体部署的61%。云计算代替了那些繁琐以及不灵活的内部部署基础设施,可以提供灵活性。
然而,它并不能消除所涉及的技术的复杂性。关于此或数据库或消息代理的相同选择仍然存在。这种选择,以及其中的复杂性,不会很快消失。像Cloudera和Hortonworks这样的公司已经尝试简化这些选择,将它们整合到堆栈中,但是它们仍然基本上提供需要被理解以便有用的工具。AmazonWebServices公司通过其Lambda服务进一步发展,这使得开发人员能够专注于编写应用程序代码,而AWS负责所有底层基础架构。
但下一步是完全为最终用户预先制作应用程序,这是华尔街分析师彼得·戈德马克所说的销售基础设施组件的更大的机会。用他的话来说,一个主要类别的“获奖者”是应用和分析供应商,它将基础技术的复杂性抽象为一个用户友好的前端。企业用户的可寻址的受众将比程序员的市场致力于核心技术。
这是市场需要去的地方,而且是快速的。人们几乎没有做过。对于每个能够掌握所有的相关的大数据技术公司,包括那些高端产业的企业,只是想只是希望重塑自己,需要有人使他们的数据更具可操作性,人们现在需要这类供应商出现。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。