至顶网CIO与CTO频道 12月09日 编译:银行和金融服务企业区块链在2019年里越过了技术鸿沟。我们在业界见到银行和支付巨头纷纷推出各种相关举措,包括各种支付网络和债券和私募股权稳定币(Stablecoins)区块链协议计划。摩根大通、汇丰银行和Visa上周又宣布了几个重点区块链发展消息。
摩根大通利用区块链优化底价协议贷款审核和管理抵押品
摩根大通是个大公司,发生的事情多多,摩根大通开发了自己的私人区块链,名为Quorum。Quorum其实也不是个完全新的区块链;他们只是用了公共Ethereum协议的副本,增加了一些重要的服务,使其能适用于金融企业。最后的区块链实现后来也开源出来,任何人都可以下载和使用。摩根大通成功地在各种使用案例里用了Quorum,例如发布Stablecoin及推出旗下的跨银行信息网络(IIN)。
据有关方面透露,摩根大通上周申请了一项专利,专利是有关优化底价协议贷款审计的,底价协议贷款审计通常都是个艰难的过程。为此目的,他们正推出一个区块链网络,网络包括原始设备制造商(OEM)、大通汽车的现有汽车经销商网络和各内部银行部门。该区块链网络结合了车辆远程信息处理解决方案,可在任何给定的时刻提供车的完全可视性。至于如何将数据从车辆发送到区块链目前还不清楚,我们都知道汽车制造商非常抗拒提供这些有价值的数据。有些汽车制造商可能愿意出售这种数据,但这种做法是个不可持续的业务规划。一个可能的解决方案是使用可插到汽车插口的物联网(IOT)设备。
另一个金融服务业区块链使用案例是利用保管智能合同优化抵押品衍生交易保证金管理。目前现存的做法多为低效率的方法,而且要满足保证金合同的要求要锁定过多的现金和非现金资本。靠Excel电子表格、现有的传统基础架构及多个结算所之间数据共享无法帮助资产可见性和执行时间。摩根大通公司与Baton Systems结成合作伙伴关系,希望借力区块链的分布式特性及智能合同的自动化功能提供实时可视性、全面审计历史及接近实时的工作流程执行。
后勤部运作使用区块链是最常见的使用场景之一,原因是区块链可提供智能自动化合同及不能修改的分类账。汇丰开发的区块链平台可以将现有纸质账簿重建成完全可追溯和实时审核的链上交易。汇丰银行是全球第七大银行,预计至2022年汇丰全球私募价值将达7.7万亿美元,与前五年比上涨60%。汇丰进军区块链空间提升他们的技术堆栈是可以预计的,因为已有成功的先例,例如北方信托的私募股权区块链平台、西班牙国家银行2000万美元的区块链债券(也是基于Ethereum上)。
Visa的LucidiTEE(Visa图)
Visa是世界上第二大信用卡支付网络(紧跟中国银联),Visa刚宣布了推出新的数据隐私研究方法,新的数据隐私研究方法用了可信执行环境(TTE)和共享分类帐。 LucidiTEE是个合规公平计算系统,LucidiTEE的构建原理基于TTE但LucidiTEE不具有TTE的缺点。目前大多数个人金融交易都是以原始数据格式存储,未受软件保护,只是符合数据策略规则。这些数据存在泄露、被攻击及误用方面的风险。LucidiTEE的做法是将每个处理器框内完成的计算存起来,并不存储实际的输入、输出或状态,因此在操作增长时仍能应付大的系统规模。Visa提出的区块链解决方案可用于大规模共享个人隐私数据、开展联合学习机操作或寻找基于隐私数据集之间的交叉点。
从最近发生在金融服务领域事情的发展我们可以看到企业对区块链技术的明显升温和接受趋势。底层区块链技术也在成熟,企业可望将区块链技术从后勤迁移至中间及前台办公业务范围。诸如交易后处理,解决复杂的证券回购协议和贷款交易等复杂和耗时的工作流程可望更快和更实惠的完成,而库存可视性也会比用目前传统系统的库存可视性更大一些。
好文章,需要你的鼓励
谷歌发布新的私有AI计算云服务,旨在提供更强大的AI体验同时保护用户隐私。该服务基于谷歌定制TPU芯片和AMD可信执行环境,通过加密连接和内存隔离确保数据安全。谷歌称其安全性与本地处理相当,但云端算力更强,可运行更大规模的Gemini模型。该服务将为Magic Cue等AI功能提供支持,采用边缘与云端混合处理模式。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
IBM研究显示,半数全球高管承认AI投资步伐过快导致技术碎片化。企业在部署生成式AI时缺乏统一规划,造成系统无法协同工作。过去三年仅25%的AI项目达到预期投资回报率,只有16%实现企业级扩展。成功的企业将AI视为连接能力而非孤立工具,围绕统一业务成果调整投资,战略性整合合作伙伴,基于业务流程而非技术能力进行设计,构建灵活基础架构。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。