博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神经网络学习
阅读量:4036 次
发布时间:2019-05-24

本文共 403 字,大约阅读时间需要 1 分钟。

1. 感知器。

感知器其实就是单个的神经网络单元。以一个实数向量作为输入,计算这些输入的线性组合,如果结果大于阈值,则输出1,否则输出-1。

感知器可以表示很多布尔函数,比较适用于线性可分的数据。

训练方法有两种,感知器训练法则和梯度下降法则。

(1) 感知器训练法则:

对权值向量,从一个随机值开始,反复应用向量到每个样例,只要出现误分类,就修改权值,直到正确分类所有的样例。

wj=wi + 增量;

增量= a (t-o) xi

其中a是学习速率,t是目标输出,o是感知器当前输出,xi是输入。

该规则应用的前提是数据线性可分。

(2) 梯度下降法则:

梯度指的是由权值向量每一维偏导数组成的向量。

 

初始化每个wi为随机值,初始化每一维的增量为0

对于每个训练样例,计算输出o,对每一维权值wi,做

增量=增量+a (t-o) xi,其中a是学习速率

对整个训练集计算一遍之后,每一维wi=wi+增量。

 

转载地址:http://zzbdi.baihongyu.com/

你可能感兴趣的文章
学习设计模式(3)——单例模式和类的成员函数中的静态变量的作用域
查看>>
自然计算时间复杂度杂谈
查看>>
当前主要目标和工作
查看>>
Intellij IDEA启动优化,让开发的感觉飞起来
查看>>
使用 Springboot 对 Kettle 进行调度开发
查看>>
如何优雅的编程,lombok你怎么这么好用
查看>>
一文看清HBase的使用场景
查看>>
除了负载均衡,Nginx还可以做很多,限流、缓存、黑白名单
查看>>
解析zookeeper的工作流程
查看>>
搞定Java面试中的数据结构问题
查看>>
慢慢欣赏linux make uImage流程
查看>>
linux内核学习(7)脱胎换骨解压缩的内核
查看>>
以太网基础知识
查看>>
慢慢欣赏linux 内核模块引用
查看>>
kprobe学习
查看>>
慢慢欣赏linux phy驱动初始化2
查看>>
慢慢欣赏linux CPU占用率学习
查看>>
2020年终总结
查看>>
linux内核学习(4)建立正式内核的页式内存映射, 以x86 32位模式为例
查看>>
Homebrew指令集
查看>>