欧美成人午夜免费全部完,亚洲午夜福利精品久久,а√最新版在线天堂,另类亚洲综合区图片小说区,亚洲欧美日韩精品色xxx

扣丁學(xué)堂盤點(diǎn)零基礎(chǔ)學(xué)習(xí)Python基礎(chǔ)教程常用十三個(gè)學(xué)習(xí)庫(kù)

2017-11-23 10:19:44 1542瀏覽

         今天扣丁學(xué)堂小編為大家整理一些關(guān)于Python常用學(xué)習(xí)庫(kù),比如日常Keras、mxnet和sklearn-theano,還有Theano和TensorFlow(庫(kù)包括Keras、deepy和Blocks等),nolearn和他們的Deep Belief Network implementation)。


         這篇文章的目的是向你介紹這些庫(kù)。我建議你認(rèn)真了解這里的每一個(gè)庫(kù),然后在某個(gè)具體工作情境中你就可以確定一個(gè)最適用的庫(kù),下面我們來(lái)看一下針對(duì)初學(xué)者學(xué)習(xí)Python開發(fā)工程師基礎(chǔ)教程最常用的十三個(gè)學(xué)習(xí)庫(kù)吧。


扣丁學(xué)堂盤點(diǎn)零基礎(chǔ)學(xué)習(xí)Python基礎(chǔ)教程常用十三個(gè)學(xué)習(xí)庫(kù)


         Caffe


         提到“深度學(xué)習(xí)庫(kù)”就不可能不說(shuō)到Caffe。事實(shí)上,自從你打開這個(gè)頁(yè)面學(xué)習(xí)深度學(xué)習(xí)庫(kù),我就敢打保票你肯定聽說(shuō)Caffe。


         那么,究竟Caffe是什么呢?Caffe是由Berkeley Vision and Learning Center(BVLC)建立的深度學(xué)習(xí)框架。它是模塊化的,速度極快。而且被應(yīng)用于學(xué)術(shù)界和產(chǎn)業(yè)界的start-of-the-art應(yīng)用程序中。


         事實(shí)上,如果你去翻閱最新的深度學(xué)習(xí)出版物(也提供源代碼),你就很可能會(huì)在它們相關(guān)的GitHub庫(kù)中找到Caffe模型。


         雖然Caffe本身并不是一個(gè)Python庫(kù),但它提供綁定到Python上的編程語(yǔ)言。我們通常在新領(lǐng)域開拓網(wǎng)絡(luò)的時(shí)候使用這些綁定。


         把Caffe放在這個(gè)列表的原因是它幾乎被應(yīng)用在各個(gè)方面。你可以在一個(gè)空白文檔里定義你的模型架構(gòu)和解決方案,建立一個(gè)JSON文件類型的.prototxt配置文件。Caffe二進(jìn)制文件提取這些.prototxt文件并培訓(xùn)你的網(wǎng)絡(luò)。Caffe完成培訓(xùn)之后,你可以把你的網(wǎng)絡(luò)和經(jīng)過(guò)分類的新圖像通過(guò)Caffe二進(jìn)制文件,更好的就直接通過(guò)Python或MATLAB的API。


         雖然我很喜歡Caffe的性能(它每天可以在K40 GPU上處理60萬(wàn)張圖片),但相比之下我更喜歡Keras和mxnet。


         主要的原因是,在.prototxt文件內(nèi)部構(gòu)建架構(gòu)可能會(huì)變得相當(dāng)乏味和無(wú)聊。更重要的是, Caffe不能用編程方式調(diào)整超參數(shù)!由于這兩個(gè)原因,在基于Python的API中我傾向于對(duì)允許我實(shí)現(xiàn)終端到終端聯(lián)播網(wǎng)的庫(kù)傾斜(包括交叉驗(yàn)證和調(diào)整超參數(shù))。


         Theano


         在最開始我想說(shuō)Theano是美麗的。如果沒(méi)有Theano,我們根本不會(huì)達(dá)到現(xiàn)有的深度學(xué)習(xí)庫(kù)的數(shù)量(特別是在Python)。同樣的,如果沒(méi)有numpy,我們就不會(huì)有SciPy、scikit-learn和 scikit-image,,同樣可以說(shuō)是關(guān)于Theano和深度學(xué)習(xí)更高級(jí)別的抽象。


         非常核心的是,Theano是一個(gè)Python庫(kù),用來(lái)定義、優(yōu)化和評(píng)估涉及多維數(shù)組的數(shù)學(xué)表達(dá)式。 Theano通過(guò)與numpy的緊密集成,透明地使用GPU來(lái)完成這些工作。


         雖然可以利用Theano建立深度學(xué)習(xí)網(wǎng)絡(luò),但我傾向于認(rèn)為Theano是神經(jīng)網(wǎng)絡(luò)的基石,同樣的numpy是作為科學(xué)計(jì)算的基石。事實(shí)上,大多數(shù)我在文章中提到的庫(kù)都是圍繞著Theano,使自己變得更加便利。


         在Theano建設(shè)卷積神經(jīng)網(wǎng)絡(luò)就像只用本機(jī)Python中的numpy寫一個(gè)定制的支持向量機(jī)(SVM),當(dāng)然這個(gè)對(duì)比并不是很完美。使用像Keras這樣的庫(kù),它把Theano包裝成更有人性化的API,同樣的方式,scikit-learn使機(jī)器學(xué)習(xí)算法工作變得更加容易。


         TensorFlow


         與Theano類似,TensorFlow是使用數(shù)據(jù)流圖進(jìn)行數(shù)值計(jì)算的開源庫(kù)(這是所有神經(jīng)網(wǎng)絡(luò)固有的特征)。最初由谷歌的機(jī)器智能研究機(jī)構(gòu)內(nèi)的Google Brain Team研究人員開發(fā),此后庫(kù)一直開源,并提供給公眾。


         相比于Theano ,TensorFlow的主要優(yōu)點(diǎn)是分布式計(jì)算,特別是在多GPU的環(huán)境中(雖然這是Theano正在攻克的項(xiàng)目)。


         除了用TensorFlow而不是Theano替換Keras后端,對(duì)于TensorFlow庫(kù)我并沒(méi)有太多的經(jīng)驗(yàn)。然而在接下來(lái)的幾個(gè)月里,我希望這有所改變。


         Lasagne


         Lasagne是Theano中用于構(gòu)建和訓(xùn)練網(wǎng)絡(luò)的輕量級(jí)庫(kù)。這里的關(guān)鍵詞是輕量級(jí)的,也就意味著它不是一個(gè)像Keras一樣圍繞著Theano的重包裝的庫(kù)。雖然這會(huì)導(dǎo)致你的代碼更加繁瑣,但它會(huì)把你從各種限制中解脫出來(lái),同時(shí)還可以讓您根據(jù)Theano進(jìn)行模塊化的構(gòu)建。


         簡(jiǎn)而言之:Lasagne的功能是Theano的低級(jí)編程和Keras的高級(jí)抽象之間的一個(gè)折中。


         Keras


         如果我必須選出一個(gè)最喜歡的深度學(xué)習(xí)Python庫(kù),我將很難在Keras和mxnet中做出抉擇——但最后,我想我會(huì)選Keras。


         Keras是一個(gè)最低限度的、模塊化的神經(jīng)網(wǎng)絡(luò)庫(kù),可以使用Theano或TensorFlow作為后端。Keras最主要的用戶體驗(yàn)是,從構(gòu)思到產(chǎn)生結(jié)果將會(huì)是一個(gè)非常迅速的過(guò)程。


         在Keras中架構(gòu)網(wǎng)絡(luò)設(shè)計(jì)是十分輕松自然的。它包括一些state-of-the-art中針對(duì)優(yōu)化(Adam,RMSProp)、標(biāo)準(zhǔn)化(BatchNorm)和激活層(PReLU,ELU,LeakyReLU)最新的算法。


         Keras也非常注重卷積神經(jīng)網(wǎng)絡(luò),這也是我十分需要的。無(wú)論它是有意還是無(wú)意的,我覺得從計(jì)算機(jī)視覺的角度來(lái)看這是非常有價(jià)值的。


         更重要的是,你既可以輕松地構(gòu)建基于序列的網(wǎng)絡(luò)(其中輸入線性流經(jīng)網(wǎng)絡(luò))又可以創(chuàng)建基于圖形的網(wǎng)絡(luò)(輸入可以“跳過(guò)”某些層直接和后面對(duì)接)。這使得創(chuàng)建像GoogLeNet和SqueezeNet這樣復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)變得容易得多。


         如果我想盡快地訓(xùn)練網(wǎng)絡(luò),那么我可能會(huì)使用mxnet。但是如果我需要調(diào)整超參數(shù),我就會(huì)用Keras設(shè)置四個(gè)獨(dú)立的實(shí)驗(yàn)(分別在我的Titan X GPUs上運(yùn)行)并評(píng)估結(jié)果。


         mxnet


         第二喜歡的深度學(xué)習(xí)Python庫(kù)無(wú)疑就是mxnet(重點(diǎn)也是訓(xùn)練圖像分類網(wǎng)絡(luò))。雖然在mxnet中站立一個(gè)網(wǎng)絡(luò)可能需要較多的代碼,但它會(huì)提供給你驚人數(shù)量的語(yǔ)言綁定(C ++、Python、R、JavaScript等)。


         Mxnet庫(kù)真正出色的是分布式計(jì)算,它支持在多個(gè)CPU / GPU機(jī)訓(xùn)練你的網(wǎng)絡(luò),甚至可以在AWS、Azure以及YARN集群。


         它確實(shí)需要更多的代碼來(lái)設(shè)立一個(gè)實(shí)驗(yàn)并在mxnet上運(yùn)行(與Keras相比),但如果你需要跨多個(gè)GPU或系統(tǒng)分配訓(xùn)練,我推薦mxnet。


         sklearn-theano


         有時(shí)候你并不需要終端到終端的培養(yǎng)一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。相反,你需要把CNN看作一個(gè)特征提取器。當(dāng)你沒(méi)有足夠的數(shù)據(jù)來(lái)從頭培養(yǎng)一個(gè)完整的CNN時(shí)它就會(huì)變得特別有用。僅僅需要把你的輸入圖像放入流行的預(yù)先訓(xùn)練架構(gòu),如OverFeat、AlexNet、VGGNet或GoogLeNet,然后從FC層提取特征(或任何您要使用的層)。


         總之,這就是sklearn-theano的功能所在。你不能用它從頭到尾的訓(xùn)練一個(gè)模型,但它的神奇之處就是可以把網(wǎng)絡(luò)作為特征提取器。當(dāng)需要評(píng)估一個(gè)特定的問(wèn)題是否適合使用深度學(xué)習(xí)來(lái)解決時(shí),我傾向于使用這個(gè)庫(kù)作為我的第一手判斷。


         nolearn


         在PyImageSearch博客上用過(guò)幾次nolearn,主要是在我的MacBook Pro上進(jìn)行一些初步的GPU實(shí)驗(yàn)和在Amazon EC2 GPU實(shí)例中進(jìn)行深度學(xué)習(xí)。


         Keras把 Theano和TensorFlow包裝成了更具人性化的API,而nolearn也為L(zhǎng)asagne做了相同的事。此外,nolearn中所有的代碼都是與scikit-learn兼容的.個(gè)人不使用nolearn做卷積神經(jīng)網(wǎng)絡(luò)(CNNs),但你當(dāng)然也可以用(我更喜歡用Keras和mxnet來(lái)做CNNs)。我主要用nolearn來(lái)制作Deep Belief Networks (DBNs)。


         DIGITS


         DIGITS并不是一個(gè)真正的深度學(xué)習(xí)庫(kù)(雖然它是用Python寫的)。DIGITS(深度學(xué)習(xí)GPU培訓(xùn)系統(tǒng))實(shí)際上是用于培訓(xùn)Caffe深度學(xué)習(xí)模式的web應(yīng)用程序(雖然我認(rèn)為你可以破解源代碼然后使用Caffe以外其他的后端進(jìn)行工作,但這聽起來(lái)就像一場(chǎng)噩夢(mèng))。


         如果你曾經(jīng)用過(guò)Caffe,那么你就會(huì)知道通過(guò)它的終端來(lái)定義.prototxt文件、生成圖像數(shù)據(jù)、運(yùn)行網(wǎng)絡(luò)并監(jiān)管你的網(wǎng)絡(luò)訓(xùn)練是相當(dāng)繁瑣的。 DIGITS旨在通過(guò)讓你在瀏覽器中執(zhí)行這些任務(wù)來(lái)解決這個(gè)問(wèn)題。


         此外,DIGITS的用戶界面非常出色,它可以為你提供有價(jià)值的統(tǒng)計(jì)數(shù)據(jù)和圖表作為你的模型訓(xùn)練。另外,你可以通過(guò)各種輸入輕松地可視化網(wǎng)絡(luò)中的激活層。最后,如果您想測(cè)試一個(gè)特定的圖像,您可以把圖片上傳到你的DIGITS服務(wù)器或進(jìn)入圖片的URL,然后你的Caffe模型將會(huì)自動(dòng)分類圖像并把結(jié)果顯示在瀏覽器中。干凈利落!


         Blocks


         說(shuō)實(shí)話,雖然我一直想嘗試,但截至目前我的確從來(lái)沒(méi)用過(guò)Blocks(這也是我把它包括在這個(gè)列表里的原因)。就像許多個(gè)在這個(gè)列表中的其他庫(kù)一樣,Blocks建立在Theano之上,呈現(xiàn)出一個(gè)用戶友好型的API。


         deepy


         如果讓你猜deepy是圍繞哪個(gè)庫(kù)建立的,你會(huì)猜什么?就是Theano。前一段時(shí)間用過(guò)deepy(做了初始提交),但在接下里的大概6-8個(gè)月我都沒(méi)有碰它了。我打算在接下來(lái)的博客文章里再嘗試一下。


         pylearn2


         雖然我從沒(méi)有主動(dòng)地使用pylearn2,但由于歷史原因,我覺得很有必要把它包括在這個(gè)列表里。 Pylearn2不僅僅是一般的機(jī)器學(xué)習(xí)庫(kù)(地位類似于scikit-learn),也包含了深度學(xué)習(xí)算法的實(shí)現(xiàn)。


         對(duì)于pylearn2我最大的擔(dān)憂就是(在撰寫本文時(shí)),它沒(méi)有一個(gè)活躍的開發(fā)者。正因?yàn)槿绱耍啾扔谙馣eras和mxnet這樣的有積極維護(hù)的庫(kù),推薦pylearn2我還有些猶豫。


         Deeplearning4j


         這本應(yīng)是一個(gè)基于Pyt Deeplearning4j hon的列表,但我想我會(huì)把Deeplearning4j包括在這里,主要是出于對(duì)他們所做事跡的無(wú)比崇敬——Deeplearning4j為JVM建立了一個(gè)開源的、分布式的深度學(xué)習(xí)庫(kù)。


         如果您在企業(yè)工作,你可能會(huì)有一個(gè)塞滿了用過(guò)的Hadoop和MapReduce服務(wù)器的儲(chǔ)存器。也許這些你還在用,也許早就不用了。


         以上就是關(guān)于初學(xué)者學(xué)習(xí)Python基礎(chǔ)教程最常用的十三個(gè)學(xué)習(xí)庫(kù)詳細(xì)介紹,最后想要學(xué)習(xí)Python開發(fā)技術(shù)的朋友選擇扣丁學(xué)堂絕對(duì)是你最正確的選擇,扣丁學(xué)堂不僅有名師和與時(shí)俱進(jìn)的課程體系,還有大量的Python培訓(xùn)視頻教程供學(xué)員觀看學(xué)習(xí),想要快速學(xué)好Python開發(fā)技能高薪就業(yè)的小伙伴抓緊時(shí)間行動(dòng)吧??鄱W(xué)堂python技術(shù)交流群279521237。




【關(guān)注微信公眾號(hào)免費(fèi)領(lǐng)取丁豆獲取更多的學(xué)習(xí)資料】



查看更多關(guān)于“Python開發(fā)資訊的相關(guān)文章>>

標(biāo)簽: Python基礎(chǔ)教程 Python入門教程 Python視頻教程

熱門專區(qū)

暫無(wú)熱門資訊

課程推薦

微信
微博
15311698296

全國(guó)免費(fèi)咨詢熱線

郵箱:codingke@1000phone.com

官方群:148715490

北京千鋒互聯(lián)科技有限公司版權(quán)所有   北京市海淀區(qū)寶盛北里西區(qū)28號(hào)中關(guān)村智誠(chéng)科創(chuàng)大廈4層
京ICP備2021002079號(hào)-2   Copyright ? 2017 - 2022
返回頂部 返回頂部