想将机器学习加入到企业的云计算应用程序吗?使用这个术语列表来了解从提供语音到文本,图像分析等功能的谷歌云端服务。
人工智能不再是科幻小说。对于一些企业来说,这项技术已经提供了许多好处。例如,使用机器学习算法,应用程序可以从不断增长的数据集中“学习”并预测可能的结果。包括Google在内的顶级云计算供应商现在提供将人工智能和机器学习带入企业的各种服务。
Google云机器学习套件提供各种API,可以分析和翻译文本,执行图像和语音识别以及使用元数据搜索视频。企业现在可以使用Google为自己的应用程序使用的技术,例如用于Google相册的图像搜索功能。
以下了解组合在一起形成Google云机器学习服务的六个主要功能:
(1)Google云机器学习引擎
Google云机器学习引擎是一种托管服务,使用户可以使用TensorFlow培训应用程序大规模构建和训练机器学习模型。它还托管云计算中的这些模型,以基于新数据进行在线和批量预测。
Google云机器学习引擎服务由四个主要组件组成:RESTAPI,GCloud命令行工具,谷歌云平台控制台,CloudDatalab。它与其他Google服务(如Google云数据流和Google云存储)集成,用于处理和存储数据。定价结构基于培训集群层-基本,标准,溢价,基本GPU和自定义集群配置,这些都按小时计费。Google公司会针对预测请求分别收费。
(2)Google云自然语言API
Google云自然语言API是一种使用JavaScriptObjectNotation请求和响应来检查文本的RESTAPI。API使用四种方法来分析和注释文本:情感,实体,实体情绪和句法分析。这些方法检查文字的语调,适当的和共同的名词,对实体的态度和语言信息。为了进一步了解,用户可以将API与其他Google云机器学习服务相结合,如Google云语音、视觉和翻译API。价格各不相同,取决于用户使用哪种分析方法。
Google公司并不是拥有机器学习产品组合的唯一公共云提供商。
(3)Google云语音API
Google云语音API是一种将音频实时转换为文本的服务。它使用神经网络算法完成转换,并具有语音识别三种核心方法:同步,异步和流媒体。该服务承认超过80种语言和各种方言。Google云语音API适用于可以发送gRPC或REST请求(例如手机和互联网设备)的设备,并与其他Google产品(如Google云端存储)集成。定价结构基于使用情况,在最初60分钟内免费,然后通过每15秒来定价。
(4)Google云翻译API
Google云翻译API是一个响应式界面,它使用Google神经机器翻译来识别和翻译100多种语言的文字。用户可以通过GoogleRESTAPI访问,RESTAPI定期接收更新以添加新的语言和语言对。其定价模式基于使用和遵循每个字符模型来收费。
(5)Google云图像API
Google云图像API分析和分类图像。它支持各种图像类型,包括JPEG,GIF和PNG8格式,并通过RESTAPI访问。它有9个图像检测功能:标签,文本,安全搜索,面部,地标,标志,图像属性,网络,以及文档检测。用户可以将多个功能应用于单个图像。Google公司每月会根据用户所申请的功能或单位数量对这些服务收费。
(6)Google云视频智能API
目前处于测试阶段的Google云视频智能API是一种RESTAPI,可让用户通过元数据提取来搜索视频。该API还会注释Google云端存储中的视频。
它的四个主要特点是标签检测,镜头变化检测,视频分割和区域处理视频。这些功能使用户能够根据合规性规定检测对象和场景变化,分割视频并选择一个区域来处理视频。前1000分钟是免费的,然后价格每分钟从$.05到$.10美元,其价格取决于用户所使用的功能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。