至顶网CIO与应用频道 03月22日 北京消息:全球领先的信息技术研究和顾问公司Gartner预计,到2023年,政府首席信息官将承担50%目前政府IT尚未出现的工作。
Gartner的近期首席信息官调查(Gartner CIO survey)显示,数字政府转型的势能正逐步增加。目前有53%的政府数字项目已脱离设计阶段,开始显现数字化的初期成果,比例高于去年的40%;另有39%的政府预计,云服务将成为其2019年新增或追加投资最多的技术领域。Gartner研究副总裁Cathleen Blanton表示:“调查结果显示领导者已较能接受云交付模式,而且不再对安全和数据的所有权感到担忧。”
发展数字化业务意味着IT机构必须采用新的技术要求。Cathleen Blanton指出:“许多政府已设有首席数据官和云架构师的职位,不过在缺乏足够资源、技术和相应文化的状况下,38%的政府机构受访者并未在2018年增设任何新职位。”
为适应新的技术需求,首席信息官必须主动进行转型进程来产生新职位或改变既有职位。例如,云服务愈发普及之后,数据中心管理一职的数量将会减少。此外,随着数字产品管理概念的出现,政府对自身服务的看法也逐渐改变,这将促使内部数字团队的形成,以便自行设计和交付产品。
未来,政府IT部门将完成更多样化的任务,公共部门机构将仰赖政府IT服务来满足包容性、市民体验和数字伦理的需求,而这些领域需要研究人员、设计师和社会科学家等新型态的技能。Blanton女士认为:“政府首席信息官必须雇用专家向市民和企业示范并解释如何针对法规与政策做出回应,且说明其对于社会、经济和政府收入带来的影响。”
同时,政府IT部门未来必须指派新的职位来支持其数字化转型,并将新兴技术引入各类型企业和任务。随着人工智能及物联网技术的进步,机器训练师(machine trainer)、会话专家(conversational specialist)和自动化专家(automation expert)将逐渐取代旧有技术领域专家。
“一切即服务”逐渐兴起
Gartner预测,到2023年,政府采用的所有新型技术解决方案中,超过80%是以一切即服务(Anything-as-a-Service,XaaS)的模式来实现并支持的。XaaS涵盖了多种IT类别,其中包括通过云提供的订阅式服务、托管式桌面(managed desktop)、服务台和网络服务、网络电话(VoIP)以及整合通讯(unified communications)。
Gartner高级研究总监Alia Mendonsa指出:“云服务带动全球各地、各产业采用XaaS模式,就连政府机构也不例外,这种模式可说是旧有基础架构现代化和投资之外的另一种选择。由于不只能提供小规模的地方性质服务,也能适用全国,因此若要扩展数字政府,这会是一种极具前景的做法。”
不过XaaS模式也会为政府首席信息官带来新的挑战。在采用初期,业务部门可能会较少寻求IT部门提供解决方案,因为他们可在无需IT介入或提供相关资源的情况下,取得XaaS解决方案。但这做法其实带有风险,因为部门通常不熟悉如何协商复杂的合约,各部门也可能各行其政,重复获取已集中提供的功能。此外,XaaS的承包模式也尚未成熟,服务水准往往不高。
Mendonsa女士认为:“正因如此,首席信息官必须告知业务部门承包作业的风险,而且要尽可能积极参与这类合约的协商过程。若没有IT机构的支持和经验,XaaS解决方案很可能对机构和市民带来极大风险。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。