本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:【j2开奖】专题 | 脑芯编:窥脑究竟,结网造芯

时间:2016-10-23 13:39来源:668论坛 作者:www.wzatv.cc 点击:
几重卷积几重生 蜘蛛结网,是为了捕食昆虫; 蜘蛛侠结网,是为了拯救世界; 码农 Data Scientist (~ds~) 结网,是为了—— 换一个角度看世界, 英语叫做: Representation。 如果你只想知道

几重卷积几重生

蜘蛛结网,是为了捕食昆虫;

蜘蛛侠结网,是为了拯救世界;

农 Data Scientist (~ds~) 结网,是为了——

换一个角度看世界,

英语叫做: Representation。

如果你只想知道一个关于神经网络的常识,我认为上面这个单词是最不应该错过的。就像每个学模拟电子学的人,其实归根结底就是学了两个字——放大。

话接上回,我们说到,通过一系列乘累加和非线性激活函数,我们就可以实现一个神经元。而关键的问题就是如何把神经元们连起来。解决这个问题之前,我们先要明白神经网络的作用——通过一系列线性和非线性的变化重新将输入信息映射成为表达事物的本质的简化特征。

如果你觉得上面一句的每个字都认识,却不知道他在说什么,那么我们来看一个经典的例子——人类的视觉皮层(Visual Cortex)。

视觉皮层, 一场生物与 AI 的伟大握手

农老师的生物课又来了……

你有没有想过当你看到生命中一个重要的人的时候,比如说基友(码农怎么会有妹纸?),你是看到是他/她的鼻子,眼睛,脸上的痘痘,昨晚熬夜的黑眼圈……但是这些东西最后都只留下了一个映像——我面基了。可是你有没有想过从你看到图像,到你得到的结论,无数的信息都已经没有过滤,你的脑子完成了一次将 4K3D 图像压缩成两个字的过程,到底发生了什么事?

  

wzatv:【j2开奖】专题 | 脑芯编:窥脑究竟,<a href=直播,结网造芯" src="http://www.wzatv.cc/atv/uploads/allimg/161023/1344334C8_0.jpeg" />

这个过程就是从信息经过视觉皮层(神经网络??)的过程。从前到后,他经过了几站:

(1)始发站——视网膜,比较像是一个电子系统的传感器,用来接收信号;

(2)快速交流道——LGN,他是将左右眼看到的信号重新编码后传递给视觉皮层,像是一个电子系统中的主控处理器与总线(请原谅我不说 LGN 的中文,因为说了你也记 不住);

(3)第一站——主视觉区 V1,第一层神经网络,司「边界检测(Edge Detection)」一职,这可能是神经元数量最丰富的一个区域;

(4)第二站——次视觉区 V2,第二层神经网络,司「基础特征提取」一职,归纳视觉信号的形状、大小、颜色、频率……

(5)第三站——V3,司「位置「,也是个过渡区,一条线上你有些站你不知道为什么会停~

(6)第四站——V4/V5(MT)分支,深度神经网络,各司「色彩/运动」;

(6)V4 分支终点站 1——换乘 inferotemporal Cortex,近深度智能 TE 区,司」目标识别「~~~终于终于我认出基友来了,撒花~~

(7)V5 分支终点站 2——换乘 Parietal Cortex, 进深度智能 MST 区,司「空间运动分析」。

视觉皮层可能是目前为止人类认识的最透彻的大脑部分,不过,好像建立在无数的活体实验上。。。即使如此,还是有很多未知的空间亟待生物学家探索。

  

wzatv:【j2开奖】专题 | 脑芯编:窥脑究竟,结网造芯

不知道读到这里,对人工智能略有了解的你有没有觉得这堂生物课在哪里见过?先做边界检测,在再做特征提取,在进行分类识别,这不就是大名鼎鼎的

C N N

LeNet/VGG/AlexNet

卷积,让加速成为一种可能

其实在神经网络领域里,目前为止唯一能算的上前所未有成功的就是 CNN(Convolution Neural Network,卷积神经网络)。最早的 CNN 可以追溯到 98 年 Yann LeCun 的一篇如何识别手写数字的 paper,这里出现了第一个 CNN 的雏形 LeNet:

  

wzatv:【j2开奖】专题 | 脑芯编:窥脑究竟,结网造芯

从结构上来,atv直播,CNN 继承了视觉皮层中对信号处理「层」的概念,虽然不是那么的 100% 的吻合,但是 CNN 的初级层往往用来做「边界检测」这样的简单的特征提取,而在深度层重新组合初级层的信息成为抽象的再表达(Representation), 最后交给事件的发生的相关概率归纳出事物的本质。

另外,一个比较不太准确的趋势是神经元的数量随层的深度逐渐减少,但是单个神经元的粗壮程度(输入数量)随层的深度逐渐增加。视觉皮层也具有相似的规律,V1 的数量多,但是结构比较简单,但到了 V4/V5,链接变得很复杂,但占的区域却比 V1 小的多。

然而,这些都不做电路的人重点。对于硅工们而言 CNN 获得巨大成功的原因在于

它极大地节省了神经网络的硬件开销

使神经元为单位作加速器成为了可能

(1)CNN 定义了一种更高能效的元操作——卷积核

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容