人脑的最小尺度也就是细胞(分子层面),当前CPU也都快到纳米级别的尺度。而同时人脑的体积也那么小,与其相比计算机可以体积庞大。直觉上来说,人脑的计算力并不是当前计算机无法达到的高度,那么当前科技模拟人脑的瓶颈在哪里?


人脑中大约有860亿个神经元,而四核i7中大约只有14亿个电路门,且其中很大一部分都布置在简单的高速缓存存储线上。虽然PC中的门电路比人脑中的神经元要快一些,但神经元可以看作是是功能更强大且机制复杂的设备。运行在超级计算机上规模比较大的人工神经网路规模也不过是以千万来计数,作用还远不如青蛙的大脑复杂。

即使人工神经网路的增长速度是按照摩尔定律进行的,在传统计算机上运行的人工神经网路也要再过几十年才能在复杂度上与人脑匹敌。但如果这样做,单个门和组成门的电路规模就必须缩小很多,这应该很难实现,到时候可能必须创建专用于模拟神经网路的设备,这又会延长不少时限。即便如此,也只是在数目上匹敌,复杂度上可能还我们需要追赶的路程还有很远。

补充:最近听了一次类脑计算的讲座,后续可以补充点内容。


模拟的先决条件是什么?

模拟两个刚性小球碰撞,得先知道刚性碰撞公式。


我个人也觉得,人脑确实是因为"太快",所以当前科技无法模拟人脑。

1.我可以从NLP自然语言理解的角度来举例:

当我们听到一个问题「1+1=?」

我们立马会猜想这是一个数学问题,然后知道要运算,答案是2。这几乎是瞬间。

也许大家会认为,计算机计算加减乘除比这个快多了,那么ok,我再举个例子。

接下来根据每个人的世界认知以及知识储备随机出一系列问题:

  1. 数学运算 1+1=?
  2. 光速有多快?
  3. 霸王别姬的男演员是谁?
  4. 奥巴马是谁?
  5. 牛奶中是否含有蛋白质?

回答上面这些问题,你就会发现,人还是那么快,而机器就不行了。每个人知道的知识很多,首先,为什么你会第一时间认为它是一个数学问题,并且是求和?如果是机器,是不是要先判断,它是数学问题?政治问题?生物问题?等等,在遍历了所有可能性以后,才会得出结果,并且再搜索答案。搜索答案也是大海捞针,从所有知识的开头开始检索到结束。但是人却能非常快的理解,并解决。

综上,人脑的运算快=所有知识储备/解决问题花费的时间。

PS:一个成年人的知识储备有多少,可想而知,并且知识储备并不会因为文化高低而受到太大影响。毕竟我不认为一个农民他掌握的内容就真的比读过书的人。在地里干活的人,至少他懂耕作,你不就不懂了吗?

目前我能掌握到的是,人脑肯定也有一个缓存区,在这个缓存区中的知识,检索起来会非常快,比如日常工作,生活息息相关的内容。太长久的往往容易被忘记,但是就是这块缓存也显得异常惊人,我还是能感受到它储量不俗。

以上仅个人观点,哈哈,算是我的猜想而已。


个人觉得是一切的根本问题是功耗,也就是发热。发热决定了目前的计算机晶元没法做太大也没法向三维空间发展。甚至把几百万个晶元串联起来就可称超级计算机。试下下,把一个几平方厘米的晶元做成三维,假设1厘米厚,如果不受发热影响,即使不考虑空间电路网带来更多的优势,就是简单的按厚度来做加减法,1cm/20nm等于多少?50w倍。不受发热影响可以把晶元做成人脑那么大,也就是1.5立方分米10*10*15cm/2*2cm*20nm 一亿多倍了。虽然这个还是赶不上大脑,但是只要没有热量的问题,做大总会赶上的


人类现在要用计算机技术摸拟自己的大脑,科技研发方向还没找准吧,关于人脑思考原理,与以二进位为基础的冯诺依曼运算方式有著天壤之别,以电脉冲信号进行运算,不发热才怪呢,而人脑也是二进位吗,根本不是,虽然冯诺依曼式的计算机在一些运算速度方面远超人类,但其原理根本不是人脑的原因。摩尔定律仅仅适用于以电脉冲硅晶片为基础的电子科技产业的发展,根本不适用于人脑,因为人脑的运行原理根本不是那种靠高频电脉冲序列(有的是程序指令序列,有的数据信息序列)的运算方式,所以说,只要采用当前的计算机原理(包括当前的人工智慧技术其基础也是二进位的计算机理论为基础的)来摸拟人脑,肯定不可能实现。


十年前,瑞士神经科学家Henry Markram在TED大会上宣布,十年内他能用计算机模拟出人脑,进一步揭露意识的本质。但如今,这曾经震惊神经学界的大型人脑模拟项目Human Brain Project正式宣告失败。

  项目参与者坦言,人脑神经元之间的合作和联系机制远比目前科学家所能了解到的复杂得多。

  加拿大Neurolinx研究所的Klaus M. Stiefel和辛辛那提大学的Daniel S. Brooks专门写了一篇论文来阐述为什么针对人类大脑的模拟做不成。他们认为,即使是低等动物,也需要大量参数,对哺乳动物来说,参数、组织层次限制和大脑特定生态学特征会让这件事情无法达成。

大家还是多关注基础研究吧,从基础科学去推动科技进步,有需要用到GPU的朋友可以再智星云租用,现在还有分时租用,也有3080可以租用。


先谈谈人脑的计算力。经过估算,人脑的计算力达到每秒几十亿亿次浮点运算,相当于目前最强的超算,远比想像的要高,但功耗低了几千万倍。具体估算过程不久前我刚回答过。再说说结构的精细程度。电脑晶元是达到十纳米左右,但需要若干电路组成基本运算,这样就大一些了,而人脑的基本元器件是钠等离子大小不足零点几纳米,即使较大的分子也只有几纳米,但功能已经更复杂了,这样相比,人脑的细度是电脑的几十倍,更重要的是,在微观角度,人脑是立体的,虽然最后的分布不是全3D的,这样,精密度就比电脑高了成千上万倍。最重要的是,人脑的神经网路结构非常高级,而电脑模拟的结构则显得非常低级。比如人脑的神经元种类可能有几百种,而电脑模拟的人工智慧的神经元只有一种。这样造成电脑在模拟上的效率非常低下。以上综合一下可以看到,目前电脑无论从硬体软体都比人脑差了万倍甚至千万倍,因此想做到全面达到人脑水平估计还需二十年。
因为根本没搞明白人脑的运作机制,所以无从模拟,谈计算机的快慢也没意义
大脑是神经网路肉质CPU,造出神经网路的CPU是超级难的吧?脑神经网路的精密并不一定就说是小。更难的我认为是构造问题。还有就是堆体积并不能解决性能问题。比如说显卡造大一点,CPU造大一点。超算的话主要是架构问题,它能把多块CPU联到一起计算。所以说只要你架构足够先进,单个CPU性能没那么厉害总体上看性能还是十分强劲的。
推荐阅读:
相关文章