不得不说,“ai”芯片仿佛某种天谴之物般,哪怕这位神孽不断地高歌“创生圣言”,赋予林奇充足而庞大无比的创造力,甚至让他时刻都有着神明的错觉,那ai芯片在记忆宫殿里依旧艰难难产着。
这种奥妙至巅峰的作品,一旦出世便能够影响整个魔法文明的存在,林奇脑海里对他的构想,终究是轻微了。
放在外人看来,林奇的所作所为,就像是将一副从a到k,包括花色顺序排好的扑克牌,随意递给十余位路人切牌洗牌,随即他再接过来随便洗上十余秒,然后将所有的牌序恢复如初一样。
甚至就像是随手递给一个初学者拧乱的魔方,结果对方随手便复原了出来。
这些都并非不可能,而是出现的概率太小。
林奇眼下的“ai芯片”,也是如此。
就像是无数随意的乱洗牌里,慢慢地揉捏出规律的杰作来,也就大自然的鬼斧神工,才能担得起这一名字。
很快。
随着整个芯片大体架构的成型时,林奇也开始陷入一种莫名的震惊之中!
一种类似谷歌曾经开发来alphago的人工智能芯片?
这让林奇忍不住想起博识图书馆地底奎因殿下的试炼,便是以围棋智力压服对手便可以拿到预言的线头。
曾经的逻辑,仿佛在这一刻重新汇聚起来。
tpu?
这款谷歌17年专门为了机器学习而开发定制的专用集成电路(asic)仅仅用了一年便转移到云端作为商用,而它也遵循着cpu与gpu的路线。
tpu。
中文名字,张量处理单元。
说来广大群众第一次接触张量这个名字,可能还是靠着看时间简史之类的科普著作。
张量,来自于数学,以多线性方式将几何向量、标量和其他类似对象映射到结果张量的几何对象。
当时林奇第一次也没听懂。
不过他看了看还是大致明白过来,所谓张量,就是一个广义的矩阵。
高中学习的向量是一维矩阵,数字的立方体是三维矩阵,甚至耽搁数字也是矩阵。
这里冥冥中已经和那神经网络算法所切合,而张量之所以与纯矩阵有曲风,便在于他拥有动态特征——生活在结构中,与其他数学实体相互作用。
而计算机科学里,张量则是一个n纬矩阵。
林奇默默在纸面上重新打版,刚刚他已经将整个神秘的控制知识拱手托出,与着神孽交换。
至于对方是否会靠此找到成神的专门要是与切记,他也都无所谓。
火都烧到眉头了,谁还会估计明天的饭菜热不热。
而随着书写,林奇的板书笔法也越发飘忽——
训练后的神经网络以标签或预估值对数据分类,此乃推理。
因此每个神经元都需要进行计算。
输入数据乘以权重,表示信号强度。
结果相加聚合神经元状态。
使用激活函数调节神经元参数活动。
如此一步接着一步,连绵不绝。
按理说,三个输入而只有两个神经元与一个单层神经网络的话,权重与输入便要六次乘法……
如此一来,矩阵里的乘片与取片,都需要大量的cpu周期与内存,而tpu这种芯片,便是为了减轻这种负荷而生。
林奇忍不住皱眉看了眼周围。
某种程度而言,计算量的负荷和电网的负荷很类似,最大的负荷便决定了整体的高峰所在(计算难度),也决定了接下来他完成“ai芯片”后所能够到达的高峰。
而供与求有需要平衡,不然的话,第一道崩溃的便是自身。
只是他很快又重新被tpu的构架所吸引而痴迷起来。
只有深入一个项目,才能彻底体会他的乐趣。
因此懂是第一步环节。
这也是棋类活动里,容易入门的象棋比起围棋受众要光,而五子棋又比起象棋还有光。
林奇越看,越发忍不住啧啧称奇。
这tpu的架构居然采用了量子技术,在预设的最大值和最小值与八位整数之间的任意值的近似过程里,tpu居然包含了足足六万五千五百三十六个八位整数乘法器,直接将32位或者16位的计算压缩成为8位。
实现了曲线的离散化。
完美地减少了神经网络预测的成本。
第二点,也是更关键的。
正如林奇最初所推崇的硬件。
tpu芯片直接封装了种种神经网络计算工具。
诸如矩阵乘法单元,统一缓冲区,激活单元等,它们以后十数个高级指令组成,集中完成神经网络推理所需要的数学计算。
同时它又采用了典型的risc处理器为简单计算提供指令。它的矩阵乘法器单元而不是传统的标量处理器,得以在一个时钟周期内,以矩阵操作,完成数十万个操作。
打个比方,传统cpu是逐行打印,而tpu芯片则能够做到影印效果。
如此种种特性,让它在神经网络计算收敛方面拥有非凡的效果,曾经几天才能训练出的成功,现在一小时不到就能够完成。
林奇不禁感慨万分。
难怪说站在巨人的肩膀上就是爽。
让他自己来设计,如何能够突破看似最简单的加法器这个关卡?
万丈高楼平地起,曾经的林奇开发cpu时,第一步入门选择完成的模块便是加法器,因为它的原理最简单,也是最容易实现的操作。
然而整个tpu芯片,居然本质上也是做加法器?
它的核心便是由乘加器组合形成的256x256的运算器阵列:乘法矩阵。
这种冥冥中的呼应,也让林奇有些哭笑不得。