MLPClassifier(hidden_layer_sizes=(100, ), activation='relu',
solver='adam', alpha=0.0001, batch_size='auto',
learning_rate='constant', learning_rate_init=0.001,
power_t=0.5, max_iter=200, shuffle=True,
random_state=None, tol=0.0001, verbo=Fal,
warm_start=Fal, momentum=0.9, nesterovs_momentum=True,strength是什么意思
early_stopping=Fal, validation_fraction=0.1,
manifestdestiny
beta_1=0.9, beta_2=0.999, epsilon=1e-08,
n_iter_no_change=10)
hidden_layer_sizes:tuple,第i个元素表⽰第i个隐藏层的神经元个数。
activation:隐藏层激活函数,identity、logistic、tanh、relu。mp3视频下载
solver:权重优化算法,lbfgs、sgd、adam。
alpha:正则化项参数。
batch_size:随机优化的minibatches的⼤⼩。pata>有道英语
learning_rate:学习率,constant、invscaling、adaptive。
learning_rate_init:初始学习率。只有当solver为sgd或adam时才使⽤。
power_t:逆扩展学习率的指数,只有当solver为sgd时才使⽤。
max_iter:最⼤迭代次数。
shuffle:是否在每次迭代时对样本进⾏清洗,当solver为sgd或adam时使⽤。非常惊喜
random_state:随机数种⼦。
tol:优化算法停⽌的条件。当迭代前后的函数差值⼩于等于tol时就停⽌。
customvalidatorverbo:是否将过程打印出。
warm_start:是否使⽤之前的解决⽅法作为初始拟合。
momentum:梯度下降的动量,介于0到1之间,solver为sgd时使⽤。
灶神之妻nesterovs_momentum:是否使⽤Nesterov动量。
宁波培训网
early_stopping:判断当验证效果不再改善时是否终⽌训练。
validation_fraction:⽤作早起停⽌验证的预留训练集的⽐例,0到1之间。
beta_1:估计⼀阶矩向量的指数衰减速率,[0,1)之间。
beta_2:估计⼆阶矩向量的指数衰减速率,[0,1)之间。
epsilon:数值稳定值,solver为adam时使⽤。皮肤暗黄怎么美白
返回值属性说明
class_:每个输出的类标签,⼤⼩为(n_class,)。
loss_:损失函数计算出的当前损失值。
coefs_:列表中的第i个元素表⽰i层的权重矩阵。
intercepts_:列表中第i个元素表⽰i+1层的偏差向量。
n_iter_:迭代次数。
n_layers_:层数。
n_outputs_:输出的个数。
out_activation_:输出激活函数的名称。
返回值⽅法说明
fit(X,y):拟合。
get_params():获取参数。
predict(X):进⾏预测。
predict_log_proba(X):对数概率估计。
predict_proba(X):概率估计。
score(X, y):返回给定测试数据和标签的平均准确度。
t_params():设置参数。
ural_network import MLPClassifier
X = [[0., 0.], [1., 1.]]
y = [0, 1]
clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5,2), random_state=1)
clf.fit(X, y)
clf.predict([[2., 2.], [-1., -2.]])