根據(jù)Gluon項(xiàng)目官方Github頁面上的描述,Gluon API支持任意一種深度學(xué)習(xí)框架,其相關(guān)規(guī)范已經(jīng)在Apache MXNet項(xiàng)目中實(shí)施,開發(fā)者只需安裝最新版本的MXNet(master)即可體驗(yàn)。AWS用戶可以創(chuàng)建一個AWS Deep Learning AMI進(jìn)行體驗(yàn)。
該頁面提供了一段簡易使用說明,摘錄如下:
本教程以一個兩層神經(jīng)網(wǎng)絡(luò)的構(gòu)建和訓(xùn)練為例,我們將它稱呼為多層感知機(jī)(multilayer perceptron)。(本示范建議使用Python 3.3或以上,并且使用Jupyter notebook來運(yùn)行。詳細(xì)教程可參考這個頁面。)
首先,進(jìn)行如下引用聲明:
然后,使用gluon.data.DataLoader承載訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)。這個DataLoader是一個iterator對象類,非常適合處理規(guī)模較大的數(shù)據(jù)集。
接下來,定義神經(jīng)網(wǎng)絡(luò):
然后把模型的參數(shù)設(shè)置一下:
之后就可以開始跑訓(xùn)練了,一共分四個步驟。一、把數(shù)據(jù)放進(jìn)去;二、在神經(jīng)網(wǎng)絡(luò)模型算出輸出之后,比較其與實(shí)際結(jié)果的差距;三、用Gluon的autograd計(jì)算模型各參數(shù)對此差距的影響;四、用Gluon的trainer方法優(yōu)化這些參數(shù)以降低差距。以下我們先讓它跑10輪的訓(xùn)練: