位置: IT常识 - 正文

mlp原来是这么回事(mlp是啥啊)

编辑:rootadmin
mlp原来是这么回事

推荐整理分享mlp原来是这么回事(mlp是啥啊),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:mlp/meme,mlp是啥啊,mlp是什么的缩写,mlp是啥啊,mlp是什么意思骂人,mlp网络用语是什么意思,mlp网络用语是什么意思,mlp是啥啊,内容如对您有帮助,希望把文章链接给更多的朋友!

开篇先告诉自己一件事,nerf用的是最快的relu激活,因为relu没有梯度消失现象,所以快,

至于这种现象的解释请看下图(还有elu和prelu这两个梯度保留的更好,nerf跑一跑?嘻嘻!):

ok,开始谈谈mlp,mlp实际上就是一个拥有多层神经网络的所谓多层感知机,感知机都是用来分类的

 由上图可知mlp最大的作用就是可以实现非线性的分类,而为什么可进行非线性分类,就是因为这个隐藏层进行了空间的转换,也就是我前一篇博客说的为了实现非线性必须要的操作。

mlp缺点也挺多的,速度慢算一个,难怪nerf跑得这么慢 ,给一个转载自其他人博客的mlp代码在这:

from __future__ import print_function, division import numpy as np import math from sklearn import datasets   from mlfromscratch.utils import train_test_split, to_categorical, normalize, accuracy_score, Plot from mlfromscratch.deep_learning.activation_functions import Sigmoid, Softmax from mlfromscratch.deep_learning.loss_functions import CrossEntropy   class MultilayerPerceptron():     """Multilayer Perceptron classifier. A fully-connected neural network with one hidden layer.     Unrolled to display the whole forward and backward pass.     Parameters:     -----------     n_hidden: int:         The number of processing nodes (neurons) in the hidden layer.      n_iterations: float         The number of training iterations the algorithm will tune the weights for.     learning_rate: float         The step length that will be used when updating the weights.     """     def __init__(self, n_hidden, n_iterations=3000, learning_rate=0.01):         self.n_hidden = n_hidden         self.n_iterations = n_iterations         self.learning_rate = learning_rate         self.hidden_activation = Sigmoid()         self.output_activation = Softmax()         self.loss = CrossEntropy()       def _initialize_weights(self, X, y):         n_samples, n_features = X.shape         _, n_outputs = y.shape         # Hidden layer         limit   = 1 / math.sqrt(n_features)         self.W  = np.random.uniform(-limit, limit, (n_features, self.n_hidden))         self.w0 = np.zeros((1, self.n_hidden))         # Output layer         limit   = 1 / math.sqrt(self.n_hidden)         self.V  = np.random.uniform(-limit, limit, (self.n_hidden, n_outputs))         self.v0 = np.zeros((1, n_outputs))       def fit(self, X, y):           self._initialize_weights(X, y)           for i in range(self.n_iterations):               # ..............             #  Forward Pass             # ..............               # HIDDEN LAYER             hidden_input = X.dot(self.W) + self.w0             hidden_output = self.hidden_activation(hidden_input)             # OUTPUT LAYER             output_layer_input = hidden_output.dot(self.V) + self.v0             y_pred = self.output_activation(output_layer_input)               # ...............             #  Backward Pass             # ...............               # OUTPUT LAYER             # Grad. w.r.t input of output layer             grad_wrt_out_l_input = self.loss.gradient(y, y_pred) * self.output_activation.gradient(output_layer_input)             grad_v = hidden_output.T.dot(grad_wrt_out_l_input)             grad_v0 = np.sum(grad_wrt_out_l_input, axis=0, keepdims=True)             # HIDDEN LAYER             # Grad. w.r.t input of hidden layer             grad_wrt_hidden_l_input = grad_wrt_out_l_input.dot(self.V.T) * self.hidden_activation.gradient(hidden_input)             grad_w = X.T.dot(grad_wrt_hidden_l_input)             grad_w0 = np.sum(grad_wrt_hidden_l_input, axis=0, keepdims=True)               # Update weights (by gradient descent)             # Move against the gradient to minimize loss             self.V  -= self.learning_rate * grad_v             self.v0 -= self.learning_rate * grad_v0             self.W  -= self.learning_rate * grad_w             self.w0 -= self.learning_rate * grad_w0       # Use the trained model to predict labels of X     def predict(self, X):         # Forward pass:         hidden_input = X.dot(self.W) + self.w0         hidden_output = self.hidden_activation(hidden_input)         output_layer_input = hidden_output.dot(self.V) + self.v0         y_pred = self.output_activation(output_layer_input)         return y_pred     def main():     data = datasets.load_digits()     X = normalize(data.data)     y = data.target       # Convert the nominal y values to binary     y = to_categorical(y)       X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, seed=1)       # MLP     clf = MultilayerPerceptron(n_hidden=16,         n_iterations=1000,         learning_rate=0.01)       clf.fit(X_train, y_train)     y_pred = np.argmax(clf.predict(X_test), axis=1)     y_test = np.argmax(y_test, axis=1)       accuracy = accuracy_score(y_test, y_pred)     print ("Accuracy:", accuracy)       # Reduce dimension to two using PCA and plot the results     Plot().plot_in_2d(X_test, y_pred, title="Multilayer Perceptron", accuracy=accuracy, legend_labels=np.unique(y))   if __name__ == "__main__":     main()

mlp原来是这么回事(mlp是啥啊)

这里的隐藏层是全连接层,因为这个隐藏层要换x的空间肯定是要作用于全部的x上,在卷积网络上也有全连接层但那个和这个的意思不太一样(全连接只是表示这一层于上一层所有神经元都连接了,根据各个神经元的参数不同,全连接层的作用自然也是不同的),卷积里的是用来分类,

 这里全连接层的神经元是激活函数(可能有点语义表达错误和sigmoid那些应该不一样,刚看了一下是一样的,因为前一层神经元要先经过全连接层处理,然后经过激活函数处理,使用就是由激活函数判断它是否激活某个条件,我看Alex net用的是relu激活(这个函数在同样数据下激活态会多一点,我觉得可能是因为非饱和,值的范围比较大导致的,不过relu在梯度下降方面表现的似乎不错,先不管这个了))。

你如果前一层的神经元和权重的组合达到了一定的条件,那么这一层的某些神经元就会被激活(达到激活函数的条件了),最后的输出层只要把这些激活的东西拼在一起看是什么就行(当然这个拼起来的结果在数学上的表示是一个抽象值,这点我在之前的博客说过,得到了这个值就可以把它和我训练出来的猫的决策分界的值进行对比,就可以知道是不是猫了)。

有人跟我说全连接的输出维度如果小于输入维度(他称这个为隐层,我觉得和隐藏层的概念不同)是为了更好的拟合,我觉得有道理,减小了输入那原来的特征就只能被迫组合,这样也就必须出来一个组合后的产物(有点像数学上的拟合过程),叫拟合是正常的。放一个转载的连接层代码,方便理解:

import torch.nn as nn import torch.nn.functional as F

class Net(nn.Module):     def __init__(self):         #nn.Module子类的函数必须在构建函数中执行父类的构造函数         #下式等价于nn.Module.__init__(self)         super(Net, self).__init__()         #卷积层“1”表示输入图片为单通道,“6”表示输出通道数,‘5’表示卷积核为5*5         self.conv1 = nn.Conv2d(1, 6, 5)         #卷积层         self.conv2 = nn.Conv2d(6, 16, 5)         #全连接层,y=Wx+b         self.fc1 = nn.Linear(16*5*5, 120)         #参考第三节,这里第一层的核大小是前一层卷积层的输出和核大小16*5*5,一共120层         self.fc2 = nn.Linear(120, 84)         #接下来每一层的核大小为1*1         self.fc3 = nn.Linear(84, 10)

    def forward(self, x):         #卷积--激活--池化         x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))         x = F.max_pool2d(F.relu(self.conv2(x)), 2)         #reshape ,'-1'表示自适应         x = x.view(x.size()[0], -1)         x = F.relu(self.fc1(x))         x = F.relu(self.fc2(x))         x = self.fc3         return x

net = Net() print(net)

 我觉得这几个函数的特点我都要放一下,方便我以后清楚他们各自的作用。

本文链接地址:https://www.jiuchutong.com/zhishi/298765.html 转载请保留说明!

上一篇:分享2款CSS3母亲节主题寄语文字动画特效

下一篇:【疯狂世界杯】css 动画实现跳动的足球(疯狂世界百科)

  • 酷狗怎么调音乐倍速(酷狗怎么调音乐速度)

    酷狗怎么调音乐倍速(酷狗怎么调音乐速度)

  • qq有黑名单设置吗(qq设置黑名单了又想取消怎么办)

    qq有黑名单设置吗(qq设置黑名单了又想取消怎么办)

  • 淘宝问大家在哪里看(淘宝问大家在哪里回复买家)

    淘宝问大家在哪里看(淘宝问大家在哪里回复买家)

  • 微信直接发文字怎么发(微信直接发文字不了怎么办呢)

    微信直接发文字怎么发(微信直接发文字不了怎么办呢)

  • 微云台是什么平台(微云台有什么作用)

    微云台是什么平台(微云台有什么作用)

  • 电脑直播有电流音怎么解决(电脑直播有电流声是什么原因)

    电脑直播有电流音怎么解决(电脑直播有电流声是什么原因)

  • 什么软件可以去视频水印(什么软件可以去红眼)

    什么软件可以去视频水印(什么软件可以去红眼)

  • 华为有万能遥控器吗(华为智能遥控app下载)

    华为有万能遥控器吗(华为智能遥控app下载)

  • 快手公司总部在哪里(快手公司总部在哪个城市上市)

    快手公司总部在哪里(快手公司总部在哪个城市上市)

  • 腾讯会议能录播吗(腾讯会议录播怎么操作)

    腾讯会议能录播吗(腾讯会议录播怎么操作)

  • 键盘打字后面的字消失了是按那个键(键盘打字后面的字怎么被代替掉了)

    键盘打字后面的字消失了是按那个键(键盘打字后面的字怎么被代替掉了)

  • 华为曲屏容易碎吗(华为曲屏的屏幕容不容易碎)

    华为曲屏容易碎吗(华为曲屏的屏幕容不容易碎)

  • 在关系数据模型中域是指什么(在关系数据模型中,若属性A是关系R的主键)

    在关系数据模型中域是指什么(在关系数据模型中,若属性A是关系R的主键)

  • 苹果手机有5g手机吗(苹果手机5g手机壳)

    苹果手机有5g手机吗(苹果手机5g手机壳)

  • 酷我k歌怎么在线点歌(酷我k歌怎么在抖音直播)

    酷我k歌怎么在线点歌(酷我k歌怎么在抖音直播)

  • 三星手机能不能应用分身(三星手机能不能微信分身)

    三星手机能不能应用分身(三星手机能不能微信分身)

  • 闲鱼被禁言怎么取消(闲鱼被禁言怎么聊天)

    闲鱼被禁言怎么取消(闲鱼被禁言怎么聊天)

  • 腾讯视频怎么领取游戏礼包(腾讯视频怎么领取喜马拉雅会员)

    腾讯视频怎么领取游戏礼包(腾讯视频怎么领取喜马拉雅会员)

  • 华为手机新闻页面怎么删除(华为手机新闻页怎么删除)

    华为手机新闻页面怎么删除(华为手机新闻页怎么删除)

  • 小米蓝牙耳机air怎么配对(小米蓝牙耳机air2 se连接不上)

    小米蓝牙耳机air怎么配对(小米蓝牙耳机air2 se连接不上)

  • 论文如何插页码(封面不加页码,正文从1开始)

    论文如何插页码(封面不加页码,正文从1开始)

  • 小米mifi随身路由器多少钱  小米mifi随身路由器价格介绍(小米随身wf)

    小米mifi随身路由器多少钱 小米mifi随身路由器价格介绍(小米随身wf)

  • PHP Composer 虚拟依赖包 - 实现按需载入钉钉对应功能模块的 php sdk(php虚拟主机)

    PHP Composer 虚拟依赖包 - 实现按需载入钉钉对应功能模块的 php sdk(php虚拟主机)

  • 年终双薪究竟该怎么算
  • 本期收入和本期减除费用
  • 劳务公司开出的工程服务费专用发票怎么计费
  • 向农业生产者收购原木进项税怎么算
  • 资源税类包括哪些税种
  • 进项税额在贷方怎么登明细账
  • 装水表财务是什么费用
  • 个人独资企业有股权吗
  • 信用评估费用收费标准
  • 高铁票抵扣税率怎么计算
  • 小规模企业所得税多少
  • 开具了红字发票信息表的税额需要转出吗
  • 合同一方按手印另一方没按有效吗
  • 房屋租赁费增值税专用发票几个点
  • 进口免税店的东西都是正品吗
  • 企业给员工发放最低生活保障
  • 开出技术服务费的账务处理
  • 代扣代缴个人所得税会计分录怎么做
  • 增值税什么情况下可以退税
  • 淘宝企业店铺是工厂直销吗
  • 个体各商户的社保
  • 小规模纳税人从哪里可以看出来
  • 企业拨缴工会经费申报后税务机关需要审核吗
  • 房产税计税依据房产原值怎么算
  • 一般纳税人企业所得税计算公式
  • 小规模季报营业税怎么算
  • 公司职工买房有补贴吗
  • 计提厂房租金怎么做账?
  • 跨年度的应收账款少记了怎么办
  • 如何生成公司开票信息二维码
  • 公司购买房子涉及什么税
  • 所得税退税会计分录为啥要借贷所得税费用
  • win7原版系统安装后没有任何驱动
  • 出口关税的完税条件
  • 销售方开红字发票怎么处理
  • php的数组函数
  • 非正常损失会计利润调整
  • 喝薏米红豆水最佳时间
  • 驼鹿穿过莫兰山了吗
  • 免抵退税如何申报增值税
  • 资金集中度指标公式
  • web自动化测试方法
  • 本月损益类未结转为零的一级科目
  • vue实现路由跳转传参
  • php密码加密技术phpass
  • 递延所得税什么时候交
  • 固定资产一次性扣除如何做账
  • g郭敬明
  • pandas常用
  • 公司借给股东的钱金额较大股东可以在年底现金归还吗
  • mysql密码忘了
  • 公对私转账有什么风险
  • 什么叫金税四期呢?
  • 季度所得税申报怎么弥补以前年度亏损
  • 非独立核算增值税汇总缴纳吗
  • 已开普通发票记账联丢失怎么办?
  • 公司租赁个人车辆租金多少合适
  • 事业单位公务员考试条件
  • 出售固定资产怎样报增值税申报表
  • 被收购企业账务处理流程
  • 用于研发购买的材料进项税额
  • 发票开票服务名称
  • 应当设置会计机构的单位有
  • Win10预览版更新弹窗如何关闭
  • ubuntu16.04.7
  • ssh -i命令
  • mac book视频
  • srvc32.exe - srvc32是什么进程
  • mmtray2k.exe有什么作用 是什么进程 mmtray2k进程查询
  • myeclipse2013安装配置
  • 全国哀悼日的意义
  • 关于jquery的用途
  • js实现自动定时功能
  • JavaScript中的数据类型
  • unity程序基础框架
  • android 图片视频轮播框架
  • js实现的倒计时怎么用
  • 餐饮服务需要交印花税吗?
  • 税控发票开票系统对电脑配置有要求吗?
  • 个人所得税减免标准及明细
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设