机器学习入门——常用激活函数(ActivationFunction)表格形式总结

更新时间:2023-06-09 10:25:45 阅读: 评论:0

途字组词从字组词机器学习⼊门——常⽤激活函数(ActivationFunction)表格形
玉带滩
式总结
图⽚摘⾃⾼扬,卫峥所著的《⽩话深度学习与TensorFlow》
激活函数(activation function)——也有翻译成激励函数,变换函数的,是神经元中重要的组成部分,如果不⽤激励函数,每⼀层输出都是上层输⼊的线性函数,⽆论神经⽹络有多少层,输出都是输⼊的线性组合,这种情况就是最原始的感知机(Perceptron)。如果使⽤的话,激活函数给神经元引⼊了⾮线性因素,使得神经⽹络可以任意逼近任何⾮线性函数,这样神经⽹络就可以应⽤到众多的⾮线性模型中。
无所谓的句子
神经元的各种数学模型的主要区别在于采⽤了不同的激活函数,从⽽使神经元具有不同的信息处理特性,
例如Sigmoid函数(⼜称Logistic函数)经常作为我们学习机器学习接触到的第⼀个激活函数,是因为他的数学形式在微积分中⽐较容易处理,Tanh函数常⽤于循环神经⽹路RNN,ReLU(rectified linear units)函数常⽤于⼤部分的卷积神经⽹络CNN,等等。猪头山>三年级仿写句子100例
>花蛤怎么吃>公司企业文化

本文发布于:2023-06-09 10:25:45,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/89/1030478.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:函数   神经   学习   线性   原始   仿写
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图