中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開(kāi)通VIP
DL之RBM:(sklearn自帶數(shù)據(jù)集為1797個(gè)樣本*64個(gè)特征+5倍數(shù)據(jù)集)深度學(xué)習(xí)之BRBM模型學(xué)習(xí)+LR進(jìn)行分類實(shí)現(xiàn)手寫數(shù)字圖識(shí)別

DL之RBM:(sklearn自帶數(shù)據(jù)集為1797個(gè)樣本*64個(gè)特征+5倍數(shù)據(jù)集)深度學(xué)習(xí)之BRBM模型學(xué)習(xí)+LR進(jìn)行分類實(shí)現(xiàn)手寫數(shù)字圖識(shí)別


輸出結(jié)果

?

實(shí)現(xiàn)代碼

from __future__ import print_function
print(__doc__)

import numpy as np               
import matplotlib.pyplot as plt  

from scipy.ndimage import convolve 
from sklearn import linear_model, datasets, metrics  
from sklearn.cross_validation import train_test_split
from sklearn.neural_network import BernoulliRBM   
from sklearn.pipeline import Pipeline            


def nudge_dataset(X, Y):  
direction_vectors = [
    [[0, 1, 0],[0, 0, 0],[0, 0, 0]],
    [[0, 0, 0],[1, 0, 0],[0, 0, 0]],
    [[0, 0, 0],[0, 0, 1],[0, 0, 0]],
    [[0, 0, 0],[0, 0, 0],[0, 1, 0]]
    ]

shift = lambda x, w: convolve(x.reshape((8, 8)), mode='constant',weights=w).ravel()
X = np.concatenate([X] +
[np.apply_along_axis(shift, 1, X, vector)
for vector in direction_vectors])
Y = np.concatenate([Y for _ in range(5)], axis=0)
return X, Y

digits = datasets.load_digits()
X = np.asarray(digits.data, 'float32')
X, Y = nudge_dataset(X, digits.target)   
X = (X - np.min(X, 0)) / (np.max(X, 0) + 0.0001)

X_train, X_test, Y_train, Y_test = train_test_split(X, Y,test_size=0.2,random_state=0) 

logistic = linear_model.LogisticRegression()
rbm = BernoulliRBM(random_state=0, verbose=True)

classifier = Pipeline(steps=[('rbm', rbm), ('logistic', logistic)]) 


rbm.learning_rate = 0.06  
rbm.n_iter = 20
# More components tend to give better prediction performance, but larger fitting time
rbm.n_components = 100
logistic.C = 6000.0

classifier.fit(X_train, Y_train)  

logistic_classifier = linear_model.LogisticRegression(C=100.0)
logistic_classifier.fit(X_train, Y_train)

print()
print("Logistic regression using RBM features:\n%s\n" % (
    metrics.classification_report(
        Y_test,classifier.predict(X_test)  
        )
    ))

print("Logistic regression using raw pixel features:\n%s\n" % (
metrics.classification_report(
Y_test,
logistic_classifier.predict(X_test))))

plt.figure(figsize=(4.2, 4))
for i, comp in enumerate(rbm.components_):
plt.subplot(10, 10, i + 1)
plt.imshow(comp.reshape((8, 8)), cmap=plt.cm.gray_r,
interpolation='nearest')
plt.xticks(())
plt.yticks(())
plt.suptitle('100 components extracted by RBM', fontsize=16)
plt.subplots_adjust(0.08, 0.02, 0.92, 0.85, 0.08, 0.23)

plt.show()


相關(guān)文章
DL之RBM:(sklearn自帶數(shù)據(jù)集為1797個(gè)樣本*64個(gè)特征+5倍數(shù)據(jù)集)深度學(xué)習(xí)之BRBM模型學(xué)習(xí)+LR進(jìn)行分類實(shí)現(xiàn)手寫數(shù)字圖識(shí)別

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
利用類權(quán)重來(lái)改善類別不平衡
機(jī)器學(xué)習(xí)入門實(shí)戰(zhàn)---波士頓房?jī)r(jià)預(yù)測(cè)
直播案例 | 使用回歸模型預(yù)測(cè)鮑魚年齡
sklearn不夠用?嘗試更高級(jí)的機(jī)器學(xué)習(xí)擴(kuò)展庫(kù):mlxtend
「周末AI課堂」過(guò)擬合問(wèn)題(代碼篇)|機(jī)器學(xué)習(xí)你會(huì)遇到的“坑”
萬(wàn)字長(zhǎng)文總結(jié)機(jī)器學(xué)習(xí)的模型評(píng)估與調(diào)參,附代碼下載
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服