7月13日晚上7点,期待已久的中国领先移动办公平台厂商金蝶云之家,联合知名学者、北京大学国家发展研究院管理学教授陈春花举行的首场线上产品发布直播,终于和我们见面。在此次直播中,陈春花教授深入讲解了企业如何做到“赋能个体,激活组织”的最新观点——即在互联网时代,效率来自于协同而非分工,企业应赋能个体智慧、激活组织团队。此外,云之家产品总监宋凯在本次直播中还展示了云之家V9新版独创的个人专属工作台,帮助企业为组织中的每个角色赋能,激活创造力。正是因为有这些新观点的提出和新产品的推出,因此除了云之家之外,网易公开课和网易财经频道等媒体也对此次发布会进行了全程直播,受关注程度可见一斑。
根据《2016企业移动信息化发展报告》,移动办公软件市场呈现高速增长态势,近八成的企业决策者认为移动办公提升工作效率高达30~40%。由此可见,社交化的移动办公软件正在加速替代和颠覆传统协同办公软件市场。对此,宋凯表示,云之家基于移动、社交、大数据技术,让企业在每一次协作中优化企业间人与人的关系,凝聚信任,激活创造力。需注意的是,随着移动互联网的飞速发展,企业的办公也急需跟上脚步,不然被淘汰可能只是一瞬间的事儿。
作为国内知名的企业研究专家,陈春花教授多年来致力于中外企业的组织与文化研究。在这场面向3000万云之家用户直播的管理公开课上,陈春花教授以《赋能个体与激活组织》为主题,提出并分享了关于激活组织的最新观点。她谈到最近自己关注的三个话题,首先:怎么让组织具有创造力,其中最重要的核心是要激活个体;其次:个体激活后,我们又该如何去面对环境的不确定性;最后:怎么让个体在一个组织的平台上发挥作用,既激活组织。而之所以陈春花教授会关注这三个话题,是因为在移动互联时代下,各行各业的企业都需面对极大的挑战,而为了应付挑战,不被时代和市场所淘汰,企业们走上了转型和变革之路。在这样的一种背景下,拥有强大个体的组织将具有更强大的影响力,而强大的个体需要嫁接在一个强大的组织平台上,才会释放出个体巨大的价值。
(云之家产品总监宋凯在直播中讲解V9新版)
显然,问题又搬上了桌面,如同上述陈春花教授关注的三个话题,企业的管理者需要通过怎样的方式去赋能个体与激活组织呢?如何协调两者的关系促进企业持续的成长?对此,陈春花教授给出了自己的答案:挑战自己,先让个体强大,再和组织组合,集合智慧,以面对这些不确定性。即给个人赋能,就是给组织赋能,这也是当下组织管理的根本性改变,也是企业持续成长的秘诀。
实际上,陈春花教授的观点,与云之家“凝聚信任,激活创造力”核心理念不谋而合。云之家产品总监宋凯在直播中介绍,针对传统办公的不足,云之家V9独创个人专属工作台为组织中的每个角色赋能:员工记录个人成长轨迹,实现自我驱动;管理者实时关注,及时激励;决策者借助可视化业务数据掌握经营动态,驱动组织快速适应变化。这也是陈春花教授“效率来自于协同而非分工”观点的实践。除了个人专属工作平台,宋凯还根据企业日常办公场景,在直播中展现了云之家V9的智能审批、报表秀秀和会议直播等新功能。
最后,据IDC数据显示,云之家是目前中国起步最早、专业性最强的移动办公平台,在大中型企业市场排名第一,拥有超过300万家企业用户,包括万科、海尔、华大基因和香港新世界等知名用户。得到这么多国内、国内企业的一致认可,从侧面也印证了云之家在企业办公方面的强劲实力,所以完全有理由相信云之家能为各大企业用户,提供一个符合移动互联网时代的办公服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。