至顶网CIO与应用频道 11月21日 北京消息: 华为云技术私享会是华为云面向中小企业、创业公司的开发者、程序员分享技术精华的线下活动。华为云PaaS第一站于本月17日来到北京中关村,和大家分享PaaS产品微服务、中间件的云上风采。接下来第二站[云安全]将于本月24日在北京赛欧孵化中心登场。
微服务作为一颗冉冉升起的新星,如今正逐渐成为一种主流的架构。云中间件,成就了电商平台的超级承载力,实现了系统快速水平扩展。
实力现场:技术大咖面对面
私享会开场,四位华为云PaaS资深架构师分别从不同角度讲述了微服务和云中间件的技术精华与产品特点。
·开场惊喜:应用架构演进技术面对面-微服务和中间件
华为云微服务架构师张琦从速度(业务上线)与安全(系统在一个可靠的状态下运行)切入,介绍了微服务在传统企业应用开发模式缺陷下,逐渐突显的重要性,以及构建微服务架构的应用系统——Chassis和Side-car。
华为云微服务架构师张琦
·经典环节 :给我一杯咖啡的时间,玩转企业IT系统微服务化上云
身着ServiveComb logoT恤的华为云微服务架构师郑扬勇介绍了微服务开源项目ServiceComb的来历、发展、子项目。ServiceComb作为一个功能完善的微服务框架,包括应用框架代码生成,服务注册发现、服务配置管理、服务监控、服务调用追踪、多通信协议支持等功能,为开发者提供端到端的应用DevOps体验。此外,还介绍了ServiceComb 中的Java Chassis架构,并进行现场演示。
华为云微服务架构师郑扬勇
·特别环节:基于Service Mesh实现非侵入式微服务方案演示
华为云微服务架构师、文艺男神田晓亮从控制面、数据面讲解了最新研发的Mesher的各大优势,并分析了ServiceComb侵入式和Mesher非侵入式微服务的联系与区别,以及未来的发展趋势(两者结合),当然,现场演示如何使用Mesher也少不了。
华为云微服务架构师田晓亮
·有趣环节:基于分布式云中间件,15分钟实现海量数据的高可用架构演变
幽默风趣中间件华为云架构师黄靖凯在此环节回顾了他的成长史——云中间件的成长史,介绍了华为电商云的架构和典型服务,以及如何使用华为云,快速搭建一个云上电商系统以及分布式缓存的服务(DCS)内容,并演示了“电商系统的分布式改造”。
华为云架构师黄靖凯
精彩互动:线上线下享不停
除大咖分享外,本次私享会还给大家准备了神秘礼包、亲密交流等环节,无法来到现场的朋友也能通过线上直播参与进来。
·神秘彩蛋:电商系统的分布式改造终环节,为粉丝们准备了专属的400元礼包,随后通过二维码扫描进入了华为云demo的界面。20分钟后,华为云资源购买模拟完毕;10分钟后,电商系统的应用系统部署(传统的单体应用)完毕;电商系统的分布式改造(基于分布式云中间件)难题也解决了….又快又顺畅!
华为云技术私享会PaaS首站现场
·现场问答:面对霸气外露的“技术巨星们”,热情的”粉丝们”不管是以往使用微服务或中间件产生的疑问,还是现场产生的新想法,都踊跃提出积极交流,现场气氛一片火热。
·线上互动:来不了的“粉丝”也没有被忘记,线上直播同样如约而至,300+人次观看,互动区更是评论爆满…
来日再约:我在赛欧孵化中心等你
如果这一次你依然错过了,没关系!
11月24日,下一场华为云技术私享会-如何做好云上安全将在丰台区赛欧孵化中心,5F咖啡举办,一起玩耍吧!
本次私享产品免费中,登陆华为云官网即刻体验
微服务引擎CSE:http://www.huaweicloud.com/product/cse.html
分布式数据库中间件 DDM:http://www.huaweicloud.com/product/ddm.html
分布式消息服务DMS:http://www.huaweicloud.com/product/dms.html
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。