量子计算在智能金融发展中的应用前景分析

量子计算在智能金融发展中的应用前景分析
量子计算在智能金融发展中的应用前景分析

摘要:智能金融发展迅速。大数据是支持人工智能发展的基础,但随着全球数据体量的爆炸式增长,以及摩尔定律趋于失效,经典计算资源的算力瓶颈问题逐渐显露。而量子计算具有远超经典计算资源的计算能力,能够提升金融服务的智能化水平和响应速度,缩小计算设备的体积,节省能耗,在金融业的应用前景可期,但也任重道远。基于此,本文提出如下建议:一是持续跟踪和支持量子计算技术的发展;二是推动建立量子人工智能商业化研究机制;三是参与量子人工智能技术的研究和攻关。

关键词:量子计算;智能金融;人工智能;机器学习;金融业

当前,我国经济发展已进入新旧动能转换的攻坚期。金融业的基础框架和生态体系也正经历着全面深刻的变革,人工智能技术成为金融业经营模式转型的重要工具。2017年,国务院颁布《新一代人工智能发展规划》,明确提出要加快推进金融业智能化升级,建立金融大数据系统,创新智能金融产品服务,鼓励智能客服、智能风控等技术的广泛应用。然而,和其他新生事物一样,金融业的智能化发展不可能一帆风顺。数据体量增长、研发能力不足、技术风险增加、监管制度滞后等因素,都是我国金融业智能化发展必须面对的困难和挑战。其中,计算能力不足将成为最难克服的障碍之一。数据的爆炸式增长提升了对计算资源的要求,而摩尔定律趋于失效又使得经典计算的算力难以突破,计算资源成为大数据应用的瓶颈。近年来,全球量子信息技术发展迅速,量子计算成为各国竞争的热点领域,并逐步被推向市场,一场“量子霸权”之争呼之欲出。量子计算具有强大的计算能力,能够突破经典计算的极限,在包括金融业在内的许多领域,均具有广泛的应用前景。本文将就量子计算在智能金融发展中的价值、需要克服的困难,以及如何推进量子计算在金融业的应用展开探讨。一、智能金融发展的现状、趋势与技术机制尽管人工智能概念已提出半个多世纪,但其真正蓬勃发展是在2011年以后。随着大数据、云计算和互联网等信息技术的发展,泛在感知数据和GPU 等推动以深度神经网络为代表的人工智能技术快速发展,让人工智能得以广泛投入各类应用

中。人工智能根据可应用性分为专用人工智能和通用人工智能。前者是专门在某个特定领域应用的人工智能技术,后者则是能够胜任各种任务的人工智能技术。从近期看,人工智能发展进程主要集中于专用智能领域,在金融业的应用,也是在特定板块代替人力向客户提供个性化和专业化的金融服务。(一)智能金融的应用现状及趋势金融业的客群庞大,储备着大量真实有效的数据,从而为智能金融的发展打下了可靠基础。目前,人工智能在金融领域比较典型且相对较为成熟的应用主要包括生物识别、智能客服、智能营销、智能信贷等。除此之外,人工智能在金融监管、风险防控、反欺诈、反洗钱、量化交易、信用评级、智能投顾等领域,也取得了实质性突破。人工智能正在加速覆盖金融应用领域,并逐步替代人工,向客户提供高速、高质的个性化服务。金融数据服务商Kensho开发的智能程序,仅用1分钟就能完成分析师40小时才能完成的工作。其创始人哈佛大学博士Nadler预测,到2026年金融业中33%~50%的工作都将被电脑取代。事实上,无论是专家,还是权威机构都看好智能金融的发展前景。美国人工智能学会主席Ben Goertzel在“2016全球创新者大会”上预测,到2025年通用人工智能将达到人类的智力水平,并可能介入全球大部分金融交易。全球知名的管理咨询公司A.T.Kearney预测,2020年智能投顾行业的资产规模将达到2.2万亿美元。智能金融的发展无疑得益于金融科技的技术突破,而宏观政策的支持则加速了智能化应用的进程。在当前人工智能快速发展的趋势下,世界主要国家纷纷进行战略布局。2016年10月,美国白宫发布《国家人工智能研究与发展战略计划》,提出人工智能的七大战略:基础研究战略、人机交互战略、社会学战略、安全战略、数据和环境战略、标准战略、人力战略。2017年3月,日本AI技术战略委员会在《人工智能技术战略》的报告中公布了政府制定的“工程表”,即以2020年和2030年为时间节点,分三阶段实现不同领域效率的大幅提高。2017年10月,英国政府发布《在英国发展人工智能》的报告,分析人工智能的发展现状,并提出从数据获取、人才培养、研究转化、行业发展四方面推动英国人工智能产业发展。2018年4

月,欧盟发布名为《欧盟人工智能》的政策报告,提出从财政支出、教育培训、道德法律三个方面为人工智能的发展提供支持。我国的人工智能发展水平也处于国际前列,并制定了相应的发展规划。2016年8月,国务院发布《“十三五”国家科技创新规划》,明确人工智能为新一代信息技术的主要发展方向。2017年7月,国务院发布《新一代人工智能发展规划》,提出将分别在2020年、2025年和2030年实现人工智能核心产业规模超过1500亿元、4000亿元和10000亿元,并为人工智能在金融业的应用提出了明确的发展方向。(二)智能金融的技术机制智能金融的广泛应用得益于人工智能技术的快速发展,而具体到技术机制来说,人工智能的发展又离不开算法、数据和硬件算力的支持。1.算法人工智能的发展首先要具备优秀的算法,例如,当前流行的深度学习算法,正是近年来人工智能取得重大突破的主要原因之一。深度学习机制主要受人脑生理结构的启发,其实质就是利用统计学方法来模拟人脑神经元网络的工作方式,通过增加神经元网络层次数,提升算法模型的学习能力和性能表现,以缓解传统神经网络算法在训练多层神经网络时出现的局部最优问题。深度学习算法加速推进了人工智能商用进程,基于深度学习算法的应用效果在某些领域已经达到,甚至超过人类(例如,人脸识别)。2.数据正如人类获得认知和学习能力主要通过实践和信息积累一样,机器的学习主要以数据为原料,只有通过对数据的深度加工和处理才能产生智能。数据驱动了理论、方法和技术创新。以海量数据为原料,深度学习等算法开辟了知识发现的新路径。互联网的蓬勃发展使得数据体量快速增加,可用数据比例不断提升,为人工智能的训练学习奠定了物质基础,并驱动人工智能取得了质的突破。这些数据构成了智能金融的原始物料,智能信贷、智能投顾、智能反欺诈等应用,无一不是这些数据深度加工、分析和总结的结果。3.硬件算力有了数据和算法,还必须有充足的算力支持。芯片技术的迭代更新,为人工智能发展提供了硬件支持,大幅降低了深度学习所需的时间和成本。二十年前,一台机器人仅有32个CPU,仅能达到120MHz的速度,无法满足人工智能的需求;而现在,人工智

能系统则由数以千计的GPU和新架构的AI芯片来提升算力,使得机器学习能力大幅增强。人工智能由此才得以实现真正的高速发展。金融业的信息密集型特征,使得人工智能模型算法更加复杂,数据训练的工作量也更大。目前,计算机硬件处理能力虽有大幅进步,但相对金融业中复杂的人工智能应用,仍有待提升。(三)智能金融的未来将面临算力瓶颈一方面,智能金融所依赖的物质基础即大数据的规模正在快速增长。近几年,全球数据量增长率正以接近24%的速度飞快增长。根据国际数据公司(IDC)的数字宇宙报告,全球数据中有90%产生于近年;预计到2020年,全球数据总和将达到44ZB(人均数据达5247GB),而中国将产生全球21%的数据。而在这些数据中,约三分之一数据具有大数据价值。依托经典计算方式实现如此庞大的数据处理,人工智能的训练学习将因数据量超出了内存和处理器的承载上限而变得十分漫长,甚至无法实现。因此,大数据的爆炸式增长,势必会给智能金融的升级带来巨大阻力。另一方面,摩尔定律趋于失效引发经典计算的能力达到瓶颈。过去半个世纪,计算机科学一直遵守着摩尔定律,即每18到24个月,集成电路上可容纳的元器件数目提升一倍,性能也增加一倍。然而,近年来摩尔定律逐渐走向崩溃,因为芯片上线条宽度逼近纳米级,晶体管只能容纳几个分子,由此会带来不可忽视的电子在不同线路之间的隧穿,使经典电子线路模型变得不再可靠。摩尔定律失效后,只能靠增加计算集群中的芯片数量提升经典计算的算力。单机多核并行、多服务器方案等,都是应对摩尔定律失效的可靠途径;但这相应地需要庞大的硬件机柜和配套的硬件机房,能耗和散热问题都将成为限制因素。以人工智能为代表的科技革命给半导体产业带来了难以承受的压力,人工智能硬件系统在技术上的局限性正日益凸显。近年来,量子计算成为炙手可热的技术热点。下文将就其所具有的强大并行计算能力能否解决智能金融的算力瓶颈问题,加以详细阐述。

二、量子计算的概念原理、发展现状与前景(一)量子计算的概念和原理量子计算(QuantumComputation)就是将量子力学和计算问题结合,利用量子力学规律(量子态的

叠加性和纠缠特性)调控量子信息处理单元进行计算的新型计算模式。这一概念由Feynman 于1982年首先提出。信息处理单元是一切计算的基础。在经典存储模式下,一个比特(Bit)只能处于0或1其中一个逻辑态,并通过晶体管的开通与关断来表示所处的状态;但在量子存储中,量子比特(Qubit)可以处于0和1的叠加态,0和1只是众多状态中特殊的两种。也就是说,一个经典存储器只能存0或1其中的一个数,而量子存储器却能同时存储0和1两个数。同理,两个经典存储器只能存00、01、10、11四个数中的一个,而量子存储器却能同时存储这四个数。依此类推,存储器的数量为n时,经典存储器仍然只能承载0和1的2n种组合中的一种,量子存储器却能同时承载2n个叠加状态。由此可见,量子存储器的存储能力呈指数增长,因此当n足够大时,量子存储器的数据存储能力将变得十分强大。在计算机科学中,计算的过程就是存储信息变换的过程。量子计算与经典计算的不同之处就在于,经典计算中对n个存储器操作一次只能变换一个数据,而量子计算中对n个存储器操作一次则可变换n个数据。这也就意味着,当存储器数量一定时,量子计算机的数据处理能力是经典计算机的2n倍。这意味着量子计算具有强大的并行计算能力。(二)量子计算的国内外发展现状量子计算的概念被提出以来,量子计算技术一直是信息科学领域具有革命性和挑战性的研究热点,并在20世纪90年代产生了因素分解算法(Shor算法)、量子搜索算法(Grover算法)等有效的量子算法。这些理论算法的提出,丰富了量子计算的发展基础。进入21世纪后,量子计算的实用化发展进程得到加速推进。同专用人工智能和通用人工智能类似,量子计算机也分为专用量子计算机和通用量子计算机。目前,通用量子计算发展缓慢,而专用量子计算已经被用来解决实际问题。从国内外发展进程看,欧美国家凭借其基础学科的发展优势,在量子计算技术方面的研究进展领先于我国。1.国外发展现状过去几年,欧美等国家的量子计算实用化研究进展迅速。从研究投入来看,包括Microsoft,Google,IBM,Intel等互联网巨头纷纷拓展合作,成立专门的研究机构或斥资研发量子计算硬件设备。

2012年,Microsoft成立了量子体系结构与计算研究组;2013年,Google与美国国家航天局(NASA)联合成立了量子人工智能实验室;2014年,IBM投入30亿美元用于研发基于量子计算和神经网络的芯片;2015年,Intel斥资与荷兰代尔夫特理工大学共同研发基于硅量子点的量子计算机。从研究成果来看,量子芯片和量子计算已取得一系列重大突破。量子芯片方面:2015年,Google联合NASA和加州大学圣塔芭芭拉分校,率先实现了9个超导Qubit的高精度操作;2017年,Intel宣布将首个17-Qubit的超导测试芯片交付荷兰QuTech 量子计算实验室,其运算速度为酷睿i7的6万倍。量子计算机方面:2011年,加拿大D-Wave公司推出了全球首款基于量子退火算法的商用量子计算机,用于解决最优解问题,并于2015年和2017年先后推出1000-Qubit和2000-Qubit的量子退火计算机,在密码学、人工智能、金融风险分析等领域具有广泛的应用前景;2017年年底,IBM宣布20量子位的计算机问世,并于2019年年初,发布全球首台独立量子计算机IBMQ System One,将全球最先进的量子计算技术封装进9英尺的玻璃立方体中。此外,包括1QBit,IonQ,QCware,Q-CTRL等初创量子科技企业,发展也十分迅速,产品涉及软硬件和云平台等多个领域。2.国内发展现状2006年,国务院发布《国家中长期科学和技术发展规划纲要(2006—2020)》,将“量子调控研究”作为四个重大科学研究计划之一,为量子计算技术的发展提供了政策支持。近年来,我国开始逐步加大投入力度,积极追赶欧美国家的发展进程,在科研布局和产业发展等方面迈出了重要步伐。目前,国内以中国科技大学、清华大学、浙江大学等为代表的顶尖高校,纷纷加入量子计算技术的研发方阵,并取得了一些重大突破。2017年5月,中国科技大学、中科院物理所等高校和科研机构,成功研发出世界第一台光量子计算机,比国际同行类似实验加快至少2.4万倍。2018年2月,阿里云和中科院联合宣布实现11-Qubit计算云服务系统,这是IBM之后的全球第二家超过10-Qubit超导量子计算云服务系统。2018年10月,华为公布量子计算云服务平台问世。该平台包括HiQ量子计算模拟器和HiQ量子

编程框架两部分,其中的HiQ量子计算能模拟42量子比特电路。除阿里巴巴与华为外,互联网巨头腾讯、百度也在积极规划量子计算研究,成立量子实验室和量子计算研究所。此外,国内首家量子计算公司—合肥本源量子计算科技有限公司,于2017年9月在合肥挂牌成立,致力于开展量子芯片、量子测控、量子软件产品的研发。整体而言,我国量子计算研究较欧美国家仍然存在基础薄弱、研发投入力度不足等问题。在商用化进程方面,我国目前尚未推出可以满足实用的量子计算软硬件设备,而同时期的IBM,Google等企业已经将量子计算设备用于解决实际问题。(三)量子计算的发展前景2018年5月,美国波士顿咨询公司在《TheComing Quantum Leapin Computing》的报告中,对量子计算发展趋势进行了预测。该报告预计,到2030年,量子计算市场的应用规模将达到500亿美元;在2018年至2042年经历三段迭代发展后走向成熟。波士顿咨询公司的预测并非空穴来风,从近年来全球量子计算领域取得的重大突破来看,量子计算在中远期内实现规模化商用,具备一定的现实性。当然,世界主要国家和地区也给予了量子计算极高的重视和支持,包括美国、欧盟、英国、澳大利亚、加拿大等国家或区域组织,均形成了战略布局,并投入了大量的资金支持量子计算技术的发展及人才培养。2018年,欧盟启动为期十年、总投资10亿欧元的“量子旗舰”计划;日本计划在十年内向量子计算领域投入3.6亿美元;英国斥资2.5亿美元在牛津大学等高校建立量子研究中心;荷兰政府投入1.4亿美元用于支持代尔夫特理工大学的量子计算研究;加拿大政府向滑铁卢大学投入了2.1亿美元用于量子领域研究;澳大利亚政府与银行出资8300万澳元在南威尔士大学成立了量子计算公司;美国众议院通过“国家量子计划法案”,美国白宫科技政策办公室还发布了《量子信息科学国家战略概述》。我国在2017年发布的《“十三五”国家基础研究专项规划》中,也明确了量子计算的发展目标,最终实现可实用化的量子计算机原型。三、量子计算在智能金融中应用的价值量子计算与人工智能作为信息科技的两个主流应用,在逻辑上存在着天然联系。人工智能因数据增长和摩尔定律失效将面

临算力瓶颈,而量子计算又有着远超经典计算的超强计算能力,二者的结合能否带来人工智能发展的又一次飞跃?事实上,国内外关于量子计算与人工智能(机器学习)的研究,已经证明了量子机器学习算法的可行性和优势。至于量子计算在金融业的应用前景,也已有学者在进行研究。可以肯定的是,金融业作为人工智能发展的一个主要应用领域,借助量子计算突破算力瓶颈、升级智能服务,具有重要的现实意义。(一)升级金融服务的智能化水平量子计算超强的并行计算能力,能够从根本上解决智能金融发展面临的算力瓶颈问题,进而提升机器学习深度,达到升级智能服务水平的目的。以智能信贷为例,目前国内商业银行的信贷不良率一般在1.5%~2%,即使是掌握了先进智能技术的蚂蚁金服,也只能将信贷业务的不良率控制在1%左右。要将不良率控制在更低的水平,需要纳入更加庞大的数据量,消除数据盲点,因而必须升级硬件计算能力和计算模型。这显然超出了经典计算的算力水平。而量子计算不仅在硬件算力上具有得天独厚的优势,而且还为深度学习提供了比经典模型更丰富的框架。此外,量子计算一些算法也具有相对于经典算法的优势。例如,量子退火算法能够利用量子隧穿效应跳出局部亚优解,达到全局最优解,在智能投顾、量化投资等领域,具有广阔的应用前景。(二)提升智能服务的响应速度金融业对人工智能的响应速度具有很高要求,尤其是在反欺诈、支付清算、授信等领域,智能设备的响应速度直接关乎金融机构的资金安全和客户体验。以GPU为代表的芯片技术的发展,为人工智能和机器学习的计算提速奠定了硬件基础,使得人工智能得以在过去几年真正蓬勃发展起来。目前,人工智能在金融领域应用的响应速度已达到毫秒级,具有显著优于人脑响应的速度优势。这也是人工智能得以广泛应用于金融领域的先决条件。不过,随着未来数据体量的快速膨胀,更大量级的碎片化、非结构化数据将被纳入应用,成为支撑智能金融发展的数据物料。面对如此庞大的数据计算需求,经典计算的硬件算力将很难保持住智能应用所需要的响应速度。而量子计算在计算速度方面相对于经典计算具有绝对优势,能够显著加速神经网络的训练,将智能金融的

响应速度提升到一个新的水平。(三)缩小计算设备体积和节省能耗经典计算资源有两个无法克服的缺陷:一是计算集群的体积问题;一是巨大的能耗问题。一方面,经典计算模式下,随着摩尔定律趋于崩溃,增加分布式服务器架构中GPU数量成为提升硬件算力的主要途径,相应地需扩大硬件机房规模,带来巨额的维护成本和硬件成本;另一方面,经典计算是不可逆且能量耗散的过程,庞大的计算集群运行中会造成巨大能耗。数据显示,2015年我国数据中心的年耗电量已达到1000亿千瓦时,超过全社会用电量的1.5%,且这一比例仍在不断上涨。而量子计算能够很好地克服经典计算的缺陷。天然的并行计算能力,使得一台量子计算机能够达到远超经典计算集群的算力,且基于量子计算的智能金融服务设备还具有轻量化、可移动的优势,可极大拓展智能金融的覆盖场景。与此同时,量子计算机能够通过幺正变换实现可逆计算,解决了计算过程中的能耗问题,可大幅降低智能金融发展的能源负担。量子计算与人工智能的结合,让智能金融的未来成为一片值得期待的“蓝海”。当然,在抵达这片“蓝海”之前,还有许多困难要攻克。具体到量子计算技术本身而言,面对的挑战包括噪声带来的退相干影响、量子比特的可拓展性、量子逻辑器件的操控精度、大数据转化为量子态及测量等。不过随着时间的推移,这些问题终将找到解决方法。根据波士顿咨询公司的预测,当前基于经典计算的高性能机器学习市场,有望在2030年前被量子机器学习取代。当然,聚焦到金融领域,推进量子智能金融的发展还需继续丰富量子机器学习算法,解决与金融的融合问题。这些都需要进行系统的规划和准备。四、金融业发展量子人工智能的相关建议和展望过去几年,国内外量子计算技术取得了许多重大突破,为这项技术从试验到商用奠定了基础。未来几年,正是推进量子计算和量子人工智能走向市场的重要战略机遇期。基于此,笔者对我国金融业的量子人工智能发展和应用提出以下建议。(一)政策层面:持续跟踪和支持量子计算技术的发展“量子霸权”的争夺是一场谁都输不起的竞争,谁能首先全面攻克这项技术,谁就能在经济、军事、科研等社会各领域建立全方位的优势。这也是世界

主要国家和地区从战略层面规划并投入大量资源支持量子计算技术发展的主要原因。面对全球范围内已经拉开序幕的量子计算技术之争,作为这项技术主要应用领域之一的金融业,必须给予其足够的重视。尽管《“十三五”国家基础研究专项规划》明确了量子计算的发展目标,但金融领域尚未形成类似的明确规划。与此相对,作为量子信息技术的另一个分支,量子通信已经被纳入央行印发的《中国金融业信息技术“十三五”发展规划》之中。这种不对等性无疑不利于量子计算技术在金融领域的研发与应用。因此,央行等金融管理机构有必要根据国际领域量子计算技术的发展趋势,以及目前我国量子计算技术的发展现状,定期对量子人工智能发展方向进行评估,合理研判技术实用化的进程,以及在金融业的应用场景和价值,提前做好发展规划,为金融业提供政策指引。(二)经济层面:推动建立量子人工智能商业化研究机制当前,国内关于量子计算技术的研究主要集中在科研院所和高校,“BAT”和华为等企业也加入其行列,推动我国从“跟跑者”的角色向“并跑者”转变。在此机遇下,金融业(包括金融管理机构和金融企业)应变被动观望为主动参与。在国家支持下,以应用为驱动,加速推动形成商业化研究机制,建立量子计算的多边合作研发模式,实现物理、材料、计算机科学、应用产业等多学科的紧密协调和结合。目前,欧美等国家和地区的金融机构在量子计算商业化合作方面领先于中国。2017年8月,澳大利亚联邦银行联合政府与高校,对澳大利亚首家量子计算公司Telstra进行了8300万美元的风险投资;2017年12月,美国摩根大通和巴克莱两家银行加入IBM量子计算研发战队,致力于合作研究量子计算在投资组合优化、风险分析、资产定价等领域的应用。金融业的优势在于资金充足,能够有效弥补量子计算技术攻坚面临的资金短板,加速孵化量子算法、量子芯片等研究成果,从而为推进量子计算机实用进程打下软硬件基础。鉴于此,我国也应鼓励央行和有实力的金融机构(例如,大型国有商业银行)率先加入量子计算机的研发阵列,以资金融入的形式,推动量子计算和量子人工智能的发展。(三)技术层面:参与量子人工智能技术的研究和攻关目前,从企业方

面看,在国内外量子计算之争中率先发枪并取得突破的是互联网巨头,例如,Google,IBM,阿里巴巴等。这些互联网企业无一例外地都通过自建或合作组建的方式,成立了自己的研发团队。反观金融机构,在量子计算的研发团队组建上则相对滞后,而我国的金融业还尚未开始行动。这无疑会进一步加大与互联网巨头的技术差距,在金融科技、智能金融的发展趋势中处于更加被动的局面。对此,建议银行、证券等金融机构要在资金融入参与方式的基础上更进一步,积极联合中国科学院、中国科技大学、清华大学等科研院所和高校,合作成立研发团队,形成“政产学研”联合研发体系,引进和培养跨领域的复合型人才,为研发团队提供必要的软硬件设备和资金支持,共同致力于解决量子计算机的物理实现难题。与此同时,金融机构作为参与方,应以落地量子人工智能在金融服务场景中的实用为目标,将精力集中于专用量子计算机的研发,重点攻坚量子算法的难题。技术攻关合作有别于单纯资金融入的参与模式,可以让金融机构更加深入地参与其中,瞄准具体的智能金融服务场景,展开更具针对性的技术研发。结语量子计算的发展已经迈入新的历史时期,机遇和挑战并存。大数据时代的到来、人工智能的蓬勃发展,成为推动量子人工智能研究进程的内在动力。可以预见,量子计算和量子人工智能在未来几年,乃至几十年将成为全球竞相争夺的科技制高点。作为未来金融服务发展趋势的智能金融与量子计算基本原理的结合,必将迸发更多能量,在化解数据爆炸引发的算力瓶颈问题的基础上,将智能金融发展水平提升到一个新的高度。正因如此,金融业积极加入量子计算技术研发行列,显得尤为必要和迫切。

相关主题
相关文档
最新文档