身为印度科塔克银行的首席数字官,Deepak Sharma在推动银行数字化转型、面向未来规划和商业模式与战略创新等方面发挥着重要作用。Sharma身先士卒,在银行内落地一系列创新技术项目,包括WhatsApp Banking、811、会话式银行机器人以及开放联网银行业务等。
在本次采访中,Sharma具体介绍了自己的成就、领导风格和塑造银行IT发展趋势的思路。
您为何决定投身于技术领域?
Sharma:我有幸在多家企业担任过不同岗位,从移动/蜂窝行业的第一波电信浪潮开始,随后又参与到银行和金融服务领域当中。我一直在业务设计和产品层面工作,因此深切意识到没有技术就无法创造出卓越的产品和体验。于是在2010年建立NRI银行与汇款平台时,我开始深耕技术。当时我的职务负责建立汇款门户、在线开户、线上数字服务和支持,以及数字营销能力。这些工作之间互有关联,共为体系。而在出任首席数字官之后,我有机会与技术人员展开更深入的合作,包括构建数字平台、流程自动化、创新、财富与支付技术,以及孵化并扩大开放银行、印度技术栈等。总之,那段时间我开始刻意向着技术领域积极融入。
迄今为止,您最大的职业成就是什么?有哪些经历让您印象深刻?
Sharma:很难说出具体哪项成就。我有幸参与到科塔克银行的发展当中,这是一家非常关注数字技术的银行。至于最印象深刻的,应该是推出一系列数字优先产品平台吧,包括启动并运行多条数字渠道,如移动应用、网站、WhatsApp和对话式AI等。我们的移动应用也是目前市场评价最高的旗舰产品之一。除了建立起行业中的许多个第一,811数字银行、财富平台Cherry、在数字账户开设流程中引入视频KYC(了解你的客户)验证、API与开放银行业务、创新实验室和设计工作室等等也都是这段旅程中的重要亮点。
这些成就着实耀眼,但IT领域最大的特点就是计划赶不上变化。如果遇到计划或项目失败,您会作何反应?又要如何运用从中汲取到的经验教训?
Sharma:失败是试验和学习过程的一部分。在数字领域,我们进行过多次投入,确实很多时候事情并不像计划中那般顺利。但只要我们成功的多、失败的少,而且每次成功都带来了有影响力的结果,那就值得继续坚持下去。
能不能聊聊您如何将新思路落实为具体行动?从想法到最终成果是怎样完成转化的?
Sharma:我们团队在确定去纸币化策略之后,短短100天内就构建并推出了811数字银行。另外在COVID-19疫情期间,印度央行批准了视频KYC验证的申请,我们也成为首家落地实践的银行。我们还在全印度大型金融机构中建立起首个财富技术平台。类似的故事还有很多,只要我们发现了机会并坚信值得一试,就会迅速采取行动。
如果有机会,您会在职业生涯中做出哪些不一样的选择?
Sharma:如果能回到过去,我可能会在结构化、阶段性和项目时限等层面,更好地平衡一下小规模投入和大型项目构建的比例。
您会如何总结自己在职业生涯中取得的成功?
Sharma:我觉得成功的要旨,在于享受问题和不确定性,从中发现有价值的机会,并与一群优秀的导师、领导者、团队和组织携手并进。我们做的一切都摆脱不了运气、时机和生态系统支持等外部因素。然而,这是一条挑战勇气和信念的道路,所以积极寻求帮助、不断自我学习肯定是取得成功的两个基本要素。
您会如何概括自己的领导风格?这种风格在您之前的岗位上又是怎样体现的?
Sharma:我觉得我是那种强调开放、协作、战略、天马行空、以结果为导向、乐于学习的沟通和联络型领导者。虽然具体倾向肯定会随着不同角色和任务的变化而有所调整,但其中的主体领导风格总会一以贯之。
您能不能总结出银行业目前呈现的三大最主要趋势?您打算如何应对这些趋势?
Sharma:第一,银行业其实越来越像科技企业,客户体验、技术和风险管理已经成为银行业务的核心。我们看到更多银行从产品转向平台,着手围绕客户体验进行服务设计。第二,AI、云、API和自动化正在未来的金融服务领域扎根,也给我们带来了新的想象空间。第三,在接纳这些来自外部生态系统的金融创新之余,银行也在积极构建并启动内部原研的金融科技方案。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。