区块链能为人工智能做什么?

首页 > 观点 >正文

【摘要】比原链重新设计一种不同于比特币的哈希运算PoW共识机制,引入了矩阵运算与卷积运算,这样就能让人工智能运算充分利用比原链的挖矿设备。在这种情况下,矿机市场巨大的经济利益能够极大地加速人工智能ASIC芯片的发展,加快人工智能的研究。反过来,人工智能的快速发展也产生了更多的ASIC矿机需求。因此,这是一种正向反馈良性发展的过程。

专栏作者     长铗  ·  2017-06-19 17:00
区块链能为人工智能做什么? - 金评媒
作者: 长铗   

金评媒(https://www.jpm.cn) 编者按:比原链重新设计一种不同于比特币的哈希运算PoW共识机制,引入了矩阵运算与卷积运算,这样就能让人工智能运算充分利用比原链的挖矿设备。在这种情况下,矿机市场巨大的经济利益能够极大地加速人工智能ASIC芯片的发展,加快人工智能的研究。反过来,人工智能的快速发展也产生了更多的ASIC矿机需求。因此,这是一种正向反馈良性发展的过程。

比原链是一种多元比特资产的交互协议,其共识机制选择了对人工智能ASIC芯片友好的PoW算法。传统的PoW共识机制,以比特币为例,矿工要周而复始的完成哈希运算以得到满足难度值条件的区块。而人工智能则需要大量的ASIC芯片的运算,比原链的共识机制就巧妙地利用了对人工智能有益的PoW机制。随着人工智能的大爆发,相应的ASIC芯片的需求将是巨大的,而能充分利用挖矿淘汰的矿机做对人类有益的运算,这对整个人类社会的意义是显而易见的。

在2009年,随着创世区块的诞生,比特币为了解决拜占庭问题而使用的PoW共识机制以低效换来了高度的安全性。

PoW相关理念最早于1993年被Cynthia Dwork和Moni Naor提出,之后的几年,该概念在是否能有效对抗拒绝服务攻击的争论中不断被人们所知。PoW机制的核心在于强迫攻击者作出一定量的工作才能进行接下来的交互操作,这样无形中就给攻击者提高了攻击的成本。自然而然的,攻击者需要完成的工作可以按消耗的计算机资源种类分为以下三大类:

  1. 消耗CPU资源。例如,反垃圾邮件的Hashcash方案以及受此启发而诞生的比特币;

  2. 消耗内存资源。例如,为了防止与比特币采用相同的共识机制所可能导致的51%攻击,以太坊在创建之初就使用了一种需要占用大量内存资源的PoW算法;

  3. 消耗网络资源。攻击者在进行拒绝服务攻击之前,必须要获取多个远程服务器发送的令牌。由于网络的延迟性,敌手必须要等待才能获得访问权限。

中本聪为了解决拜占庭共识问题,在比特币系统中引入竞争挖矿的机制。同时,为了保证最大可能的公平性,采用了基于哈希运算的PoW共识机制。矿工如果想要得到一个合法的区块,则必须向区块头中填入不同的随机值,然后计算出区块头的哈希值,使得得到的哈希值小于目标值。这样,矿工在不断寻找合适随机值的过程中完成了一定的工作量。可以发现,矿工完成的这个工作量对于现实社会毫无意义。唯一的意义就是保障了比特币的安全性。

之后,随着显卡和FPGA的出现,比特币挖矿算力增长迅速,而随着带有为哈希运算专门优化的ASIC芯片的挖矿设备面世,比特币的算力遂呈几何指数增长。算力的提升进一步提高了比特币系统的安全性,也意味着越来越多的能源被用作挖矿。为了满足日益增长的挖矿电力需求,中国的绝大部分比特币矿场必须依托于西南地区或者内蒙古地区的小型发电站。

当前的比特币网络全网算力为5000PH/S,而阿瓦隆即将发布的Avaon741矿机单机算力为8TH/S,而功率为1150瓦,即使全网矿机全部更换为最新矿机,全网一天要消耗约1700万度电力能源。无疑,这是一种巨大的能源浪费。

ASIC(Application Specific Integrated Circuit),即特定用途集成电路。不同于CPU,GPU的强通用性和兼容性,也不同于FPGA在硬件结构上的高度可重构性,ASIC芯片一般只对特定的运算进行优化,属于一种单一功能的集成电路。但是,就是由于其只对特定运算进行优化,所以ASIC在运算效率上具有巨大的优势,且功耗也控制的相对较低。

如下图所示,从创世区块到第26万号区块,挖矿难度值似乎没有什么增长。相对于26万号区块之后的巨大难度值,之前的挖矿难度只能用简单来形容。然而,约26万区块号之后,比特币区块的难度值急剧增加。这从侧面也反映了比特币全网算力的大幅度提高。实际上,比特币的全网算力从创世区块的约7MH/S已增至如今的约5000PH/S,比特币的算力已经增加了7000亿倍。而第26万号区块正是出现在2013年底,这与比特币ASIC挖矿设备出现的时间点非常吻合。

微信图片_20170617103937.png

现今比特币挖矿设备早已跨入了ASIC时代,而使用ASIC芯片来进行人工智能相关的基础计算才刚刚兴起。

人工智能领域中,深度学习目前被广为关注。2016年3月,谷歌的AlphaGo与韩国棋手李世石的对决中取得了4:1的成绩。而后,化名Master的AlphaGo升级版于2016年12月至2017年1月对战世界顶尖的44名棋手,最后取得了60连胜的成绩。深度学习算法绝大多数可以被映射为底层的线性代数运算。线性代数运算有两大特点:一是Tensor的流动非常规整且可预期;二是计算密度很高。这两大特点使得深度学习特别适合做硬件加速。

值得注意的是,AlphaGo与李世石的对弈中使用了170个GPU和1200个CPU;而AlphaGo Master则仅使用一个TPU单机版。TPU(Tensor Processing Unit),即张量处理单元,是一款为机器学习而定制的ASIC芯片。由此可见,比特币矿机和人工智能深度学习具有可比性,它们都是依赖于底层的芯片进行大规模并行计算,使用ASIC芯片可以大幅提高运算效率。

除了人机对弈,苹果的Siri智能语音助手也采用了机器学习技术来增强其理解和执行用户的自然语言的能力。同样,采用人工智能技术的Tesla智能驾驶系统也极大地提升了用户的驾驶体验。而亚马逊采用人工智能技术开发的购物预测系统能够更加精准的推荐给客户合适的商品。

因此,比特币矿工使用ASIC设备在挖矿过程中计算的哈希值毫无价值,而运行于ASIC芯片之上的人工智能则给人类带来了诸多益处。

当前矿工的的每日平均收益为7.22元每THash。如果自己的矿机运行一天的成本高于这个值,则矿工实际上就处于亏损状态。而淘汰下来的ASIC矿机就没有任何用武之地。

比原链重新设计一种不同于比特币的哈希运算PoW共识机制,引入了矩阵运算与卷积运算,这样就能让人工智能运算充分利用比原链的挖矿设备。在这种情况下,矿机市场巨大的经济利益能够极大地加速人工智能ASIC芯片的发展,加快人工智能的研究。反过来,人工智能的快速发展也产生了更多的ASIC矿机需求。因此,这是一种正向反馈良性发展的过程。

国家发改委在《“互联网+”人工智能三年行动实施方案》中提出,到2018年国内的人工智能市场应用规模要达到千亿级别。类比于云计算,由于云计算的快速发展,作为云计算的基础设施,因特尔的服务器业务有30%提供给了云计算公司。而仅亚太地区,服务器厂商的销售额就增长了9.7%。类似于云计算的迅猛发展对服务器市场的促进作用,可以预料,当人工智能的市场规模达到千亿级别之后,ASIC芯片的市场规模势必也能达到百亿级别。而比原链对人工智能ASIC芯片友好型PoW算法势必将挖矿闲置或者淘汰下来的矿机充分利用。

在倡导环保,资源重复利用的今天,能够使得闲置矿机得以造福人工智能发展,这本身就是一种巨大的进步。

(编辑:郑惠敏)

上一篇文章                  下一篇文章
以上文字仅代表作者个人观点,并不代表金评媒立场,禁止转载。

长铗

巴比特(www.8btc.com)创始人,区块链研究者,科幻作家,2006~2008连续三届中国科幻小说最高奖银河奖得主。

评论:
    . 点击排行
    . 随机阅读
    . 相关内容