2017年8月,环信移动客服品牌全面升级为环信客户互动云(Customer Engagement Cloud)。环信客户互动云——全媒体智能客户互动中心倡领者。环信客户互动云整合了环信全球领先的即时通讯云、服务云、智能客服机器人和营销云产品线,通过人工智能和大数据赋能,为企业提供从客户互动渠道,到客户服务,再到精准营销的全流程客户互动解决方案。帮助企业优化运营,精准营销,提高客户服务体验。
环信客户互动云:从用户互动渠道到客户服务再到用户营销完整闭环
环信客户互动云在经历了48个版本的迭代以后,在包括产品易用性、稳定性、增值服务多样性等方面均有质的飞跃,为了给客户创造更好的功能体验,原有环信移动客服产品全面升级为环信客户互动云。同时,将于8月17日开启环信金秋有礼,价值20万十大增值服务大礼包(视频客服、主动营销、客户声音...)免费送活动,登录环信官网(www.easemob.com)即可参与!
活动内容详情:
1. 单次购买(新购、续约、扩容)3个及以上客服坐席(标准版/旗舰版),即赠送价值10W/20W 十大增值服务大礼包一个(有效期3个月)。
2. 为了满足广大企业客户更便捷员工管理的需求,客服坐席费用将按最大启用坐席(无限创建坐席模式)以租户内同时可在线坐席数为准模式收费。旗舰版4800元/年,标准版1800元/年(活动期间将按照折扣价格1500元/年执行),新服务价格体系将于10月1日开始正式执行,先到先得。
3.活动日期:2017.8.17——2017.9.30
礼包详情:
A 财源滚滚礼包(10万)
1、主动发起会话:查看正在访问网站的访客,并选择优质访客发起会话(需提供网站URL)。
2、访客轨迹:收集访客浏览轨迹,显示在会话窗口里,帮助判断客户的兴趣范围及产品爱好。
3、全站访客统计:洞悉访客来源,可视化网站流量、全站访客轨迹等。
4、视频客服:由访客发起,与坐席1对1视频沟通。
B 满分客服礼包(10万)
1、显示排队人数:支持在网页端聊天窗口显示当前排队人数。
2、坐席消息预知:网页端客户聊天时,在会话面板显示客户的输入状态及正在输入的内容。
3、消息撤回:APP、网页渠道,可以撤回2分钟内的聊天消息。消息撤回后,将在APP、网页访客端消失。
4、视频客服:由访客发起,与客服1对1视频沟通,更加形象的解决用户问题。
C 十全十美礼包(20万)
1、主动发起会话:查看正在访问网站的访客,并选择优质访客发起会话。
2、视频客服:由访客发起,与客服1对1视频沟通。
3、关键字匹配:关键字匹配,系统自动回复一条消息,帮助客服和机器人更加灵活、快速、准确地解答客户的问题。
4、主动营销:整合用户信息,自动联系到站用户,增加访客线索,提高推广效果。
5、客户之声:通过自然语言解析,主题聚类,情感度分析等技术手段挖掘和分析热点话题,支持每日热门关键词查询和筛选,可手动添加自定义关键词,查看客户情感趋势及全局关键词分布,可查看具体关键词详情、导出会话消息并对具体会话进行回呼,可停用无需关注的关键词。
活动细则:
• 活动期间内在线支付、线下购买客服坐席均可参与,每个租户只可以参加一次。
• 付款后,即可发送礼包登记邮件,我们会在5个工作日内受理。
• 用户付款后需在7日内申请礼包,逾期未申请视为放弃礼包资格
• 礼包内容不可更改。
• 礼包有效期以礼包开通之日起开始计算,有效期3个月。
• 活动过程中,如出现以下行为(如拆分下单、领取礼包后退款、虚假购买等),环信有权自动取消活动礼包,本次活动环信具有最终解释权。
参与活动:http://www.easemob.com/event/cec_gift
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。