虽然大数据已经变得更像一句营销术语,但是它仍有巨大的潜力没有被挖掘出来。不过,得先把数据获取这个大麻烦解决了。
企业在面对数据的时候,比知道怎么处理更多的情况,是在这些数据里漫无目的的游泳。遗憾的是,太多的公司将这种现象与大数据本身关联起来。从技术角度来说,大数据是非常具体的一件事――结构化数据(企业的专有信息)与非结构化数据(社交媒体数据流和政府新闻源之类的公共数据源)的结合体。
如果你将非结构化数据覆盖在结构化数据之上,通过分析软件将其可视化,你就会得到过去从未有过的洞察力――预测产品销售、更精准地目标用户、新的市场机遇,等等。
大数据不再像过去几年一样,受限于工具缺乏的问题。那时候搞大数据意味着团队里必须有数据科学家,还会被R和Hadoop之类的开源工具搞得心烦意乱。
如今,多少公司都争着帮你可视化大数据:从Tableau、Qlik、TIBCO和MicroStrategy之类的专业公司,到微软、IBM、SAP和甲骨文之类提供端到端服务的厂商,不一而足。
不过,据上周出席奥兰多中级市场CIO论坛/中级市场首席营销官(CMO)论坛的IT主管们声称,许多公司在大数据分析中最头疼的问题,其实是如何获取数据。
一位CIO说:“我们IT部门的最大问题,是我们如何才能将数据获取进来,这件事非常麻烦。”
这种说法也得到了相关数据的证实。
数据集成公司Xplenty开展的一项调查声称,三分之一的商业智能专业人员把50%至90%的时间,花在了清理原始数据和将数据录入到公司的数据平台的准备工作上。这种现象的原因,可能与只有28%的公司认为自己能从数据中获得战略性价值有很大关系。
数据清理的问题还包括,眼下IT行业许多最抢手的专业人员,正在花大量时间处理这项让人晕头转向的工作:在分析数据之前先筛选并组织整理数据集。
这显然对于数据的可扩展性非常不利,也严重限制了大数据的潜力。随着物联网不断发展,收集更多的数据对我们来说将越来越容易,这个问题只会变得更严峻。
有三种可能的方法有望解决这个问题:
1. 大数据分析软件不断完善――许多这些公司在过去五年时一直投入大量精力在大数据领域,减轻数据清理环节压力的工具不太可能在短期内出现重大突破,但有望实现逐步改进。
2. 数据准备人员成为数据科学家的助手――正如律师助理帮助律师处理重要的基础工作,数据准备人员也会帮助数据科学家处理基本上同样的底层任务。我们已经在某种程度上看到了这一幕。不妨阅读TechRepublic的这篇文章:《“数据标记”是人工智能时代的新新蓝领工作吗?》(http://www.techrepublic.com/article/is-data-labeling-the-new-blue-collar-job-of-the-ai-era/)
3. 利用人工智能清理数据――另一种可能性是,用来清理、筛选和分类数据的软件和算法将被编写出来。这一幕极有可能出现,但是我们还应预料到,这也不是“银弹”。微软、IBM和亚马逊正在致力于用人工进行软件无法处理的数据标记工作――而这正是全球自动化和算法领域的三巨头。
好文章,需要你的鼓励
泰国SCBX公司研究团队首次针对泰语开发了语义对话结束检测技术,通过分析文字内容而非声音停顿来判断对话是否结束。研究比较了多种AI模型方案,发现微调的小型变压器模型能在110毫秒内做出准确判断,显著优于传统静音检测方法。该技术能识别泰语特有的句尾助词等语言特征,为银行客服、智能家居、教育等场景的语音交互系统提供了更自然流畅的解决方案。
OpenAI推出全新Sora应用,打造完全由AI生成视频的社交媒体平台。美国、加拿大、日本和韩国用户现可直接下载使用,无需邀请码,但该开放政策仅限时提供。其他地区用户仍需等待更广泛的开放或通过Discord等渠道获取邀请码。用户可使用ChatGPT账户登录,立即开始观看、分享和创建AI视频内容。
浙江大学研究团队提出Graph2Eval框架,这是首个基于知识图谱的AI代理自动化评测系统。该框架通过知识图谱持续生成新测试任务,解决传统固定数据集评估的局限性。框架支持文档理解和网页交互两类任务,构建了包含1319个任务的测试集。实验验证显示该方法能有效区分不同AI系统能力,为AI代理评估开辟新路径。