7月13日晚上7点,期待已久的中国领先移动办公平台厂商金蝶云之家,联合知名学者、北京大学国家发展研究院管理学教授陈春花举行的首场线上产品发布直播,终于和我们见面。在此次直播中,陈春花教授深入讲解了企业如何做到“赋能个体,激活组织”的最新观点——即在互联网时代,效率来自于协同而非分工,企业应赋能个体智慧、激活组织团队。此外,云之家产品总监宋凯在本次直播中还展示了云之家V9新版独创的个人专属工作台,帮助企业为组织中的每个角色赋能,激活创造力。正是因为有这些新观点的提出和新产品的推出,因此除了云之家之外,网易公开课和网易财经频道等媒体也对此次发布会进行了全程直播,受关注程度可见一斑。
根据《2016企业移动信息化发展报告》,移动办公软件市场呈现高速增长态势,近八成的企业决策者认为移动办公提升工作效率高达30~40%。由此可见,社交化的移动办公软件正在加速替代和颠覆传统协同办公软件市场。对此,宋凯表示,云之家基于移动、社交、大数据技术,让企业在每一次协作中优化企业间人与人的关系,凝聚信任,激活创造力。需注意的是,随着移动互联网的飞速发展,企业的办公也急需跟上脚步,不然被淘汰可能只是一瞬间的事儿。
作为国内知名的企业研究专家,陈春花教授多年来致力于中外企业的组织与文化研究。在这场面向3000万云之家用户直播的管理公开课上,陈春花教授以《赋能个体与激活组织》为主题,提出并分享了关于激活组织的最新观点。她谈到最近自己关注的三个话题,首先:怎么让组织具有创造力,其中最重要的核心是要激活个体;其次:个体激活后,我们又该如何去面对环境的不确定性;最后:怎么让个体在一个组织的平台上发挥作用,既激活组织。而之所以陈春花教授会关注这三个话题,是因为在移动互联时代下,各行各业的企业都需面对极大的挑战,而为了应付挑战,不被时代和市场所淘汰,企业们走上了转型和变革之路。在这样的一种背景下,拥有强大个体的组织将具有更强大的影响力,而强大的个体需要嫁接在一个强大的组织平台上,才会释放出个体巨大的价值。
(云之家产品总监宋凯在直播中讲解V9新版)
显然,问题又搬上了桌面,如同上述陈春花教授关注的三个话题,企业的管理者需要通过怎样的方式去赋能个体与激活组织呢?如何协调两者的关系促进企业持续的成长?对此,陈春花教授给出了自己的答案:挑战自己,先让个体强大,再和组织组合,集合智慧,以面对这些不确定性。即给个人赋能,就是给组织赋能,这也是当下组织管理的根本性改变,也是企业持续成长的秘诀。
实际上,陈春花教授的观点,与云之家“凝聚信任,激活创造力”核心理念不谋而合。云之家产品总监宋凯在直播中介绍,针对传统办公的不足,云之家V9独创个人专属工作台为组织中的每个角色赋能:员工记录个人成长轨迹,实现自我驱动;管理者实时关注,及时激励;决策者借助可视化业务数据掌握经营动态,驱动组织快速适应变化。这也是陈春花教授“效率来自于协同而非分工”观点的实践。除了个人专属工作平台,宋凯还根据企业日常办公场景,在直播中展现了云之家V9的智能审批、报表秀秀和会议直播等新功能。
最后,据IDC数据显示,云之家是目前中国起步最早、专业性最强的移动办公平台,在大中型企业市场排名第一,拥有超过300万家企业用户,包括万科、海尔、华大基因和香港新世界等知名用户。得到这么多国内、国内企业的一致认可,从侧面也印证了云之家在企业办公方面的强劲实力,所以完全有理由相信云之家能为各大企业用户,提供一个符合移动互联网时代的办公服务。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。