掌阅科技选择亚马逊云科技为重要云服务供应商,应用生成式AI技术为掌阅AI阅读项目提供助力,为用户打造数字化与沉浸式创新阅读体验,从而提升用户粘性。借助亚马逊云科技中国(北京)区域(光环新网运营)和(宁夏)区域(西云数据运营)的机器学习平台Amazon SageMaker以及Stable Diffusion亚马逊云科技插件解决方案等技术,掌阅科技为用户提供文生图、文生视频在内的多维度阅读交互方式,并大幅缩短了项目的调研、测试和部署周期。
掌阅科技股份有限公司成立于2008年,专注于数字阅读。当下,生成式AI技术正在以其强大的创造力和生成能力给数字内容生产带来全新变化,诸多文生图、图生图等沉浸式、高互动性的阅读创新场景加速落地,赋予用户前所未有的阅读感官体验。作为全球领先的数字阅读平台之一,掌阅科技积极拥抱生成式AI技术,不断探索文化与前沿科技交互融合的可能性,通过构建掌阅AI阅读项目,挖掘读者偏好并优化用户体验,实现持续商业创新与变革。
掌阅科技应用机器学习平台Amazon SageMaker,获得快速构建、训练和部署机器学习模型的能力,加速模型训练效果的验证与优化。依托开箱即用的关于Stable Diffusion的亚马逊云科技插件解决方案,掌阅科技可将现有的Stable Diffusion模型训练、推理和调优等工作负载从本地服务器迁移至Amazon SageMaker,利用云上弹性资源促进模型迭代,避免单机部署所带来的性能瓶颈,满足用户对文生图场景的需求,具有安装便捷、可扩展性强、可协作性强的应用优势。同时,该解决方案的代码是开源的,掌阅科技可将其运用于LoRA训练,进一步优化文生图功能的性能表现。
掌阅科技早在2015年便积极布局海外业务。迄今为止,掌阅科技海外业务大部分部署在亚马逊云科技之上,为全球各地读者提供海量的图书内容和优质的在线阅读体验。通过使用托管式关系数据库服务Amazon Relational Database Service (Amazon RDS),掌阅科技能够将书籍信息存储在MySQL中,在轻松实现对书籍的管理与检索的同时还可确保数据的持久和可靠性。面对用户个性化场景推荐,全托管的无服务器非关系数据库Amazon DynamoDB不仅能够存储和分析用户个性化推荐模型所需的数据,还支持复杂的数据查询和分析,进而为掌阅科技的用户提供更精准的推荐结果。此外,依托亚马逊云科技快速、高度安全且可编程的内容分发网络Amazon CloudFront (CDN)和弹性扩展、安全、高可用的云服务器Amazon Elastic Compute Cloud (Amazon EC2),掌阅科技开发人员能够实现低延迟、高传输速度的内容分发,从而保障全球用户流畅的阅读体验。
掌阅科技CTO孙凯表示:“亚马逊云科技在生成式AI领域拥有全栈式技术布局,有效帮助我们应用生成式AI技术提升读者数字化阅读体验,塑造智慧阅读数字内容生产与交互新范式。未来,我们将继续与亚马逊云科技深耕合作,应用全托管生成式AI服务Amazon Bedrock,并围绕内容生产力、个性化服务、全球化运营等方面探索创新解决方案,为全球读者带来更加丰富的数字化交互方式和优质的在线阅读体验,推动数字阅读行业的多元化发展。”
亚马逊云科技中国区行业集群总经理沈涛表示:“我们非常高兴能够助力掌阅科技应用生成式AI打造沉浸式、高互动性的阅读创新场景。当下,生成式AI技术在内容创作与素材生成方面展现出了巨大潜力,我们期待继续与掌阅科技携手,推进生成式AI技术与数字阅读的深度融合,不断丰富在线阅读的内容形式与服务模式,进一步赋能数字阅读领域创新升级。”
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。