欧美日本一道本在线视频,日韩福利视频网,www青青草原,欧美日韩在线视频观看,a级午夜精华,久久久亚洲欧洲日产国码aⅴ ,九九视频国产

學界 | Ian Goodfellow發(fā)推講2個機器學習黑魔法,教你如何推導公式

2018-05-17 11:43:57 中國電力信息化  點擊量: 評論 (0)
《深度學習》(花書)作者Ian Goodfellow今早連發(fā)了10條推特,細數(shù)了他最喜歡的兩個機器學習“黑魔法”。他在著名的GAN論文中使用這兩個小竅門推導了公式。

學界

大數(shù)據(jù)文摘作品

作者:小魚、土豆

《深度學習》(花書)作者Ian Goodfellow今早連發(fā)了10條推特,細數(shù)了他最喜歡的兩個機器學習“黑魔法”。他在著名的GAN論文中使用這兩個小竅門推導了公式。

最后,他還不忘操心大家的學習,推薦了一本關于凸優(yōu)化的書。當然,更詳盡的操作還是要去看Goodfellow本人的《深度學習》。文摘菌給大家搭配了斯坦福的一門MOOC,一起學習風味更佳~拉至文末查看喔~

Goodfellow稱,這是關于機器學習,他最喜歡的兩個快速理解理論推導的“黑魔法”。

感興趣的同學在大數(shù)據(jù)文摘后臺回復“goodfellow”可獲取GAN論文和《凸優(yōu)化》。

以下是Ian Goodfellow推特內容:

很多時候,我們用代數(shù)或微積分來分析神經網絡的最優(yōu)行為。想實現(xiàn)一些函數(shù)的權重衰減或許可以用代數(shù)方法實現(xiàn),但想要用代數(shù)方法解決神經網絡中大多數(shù)函數(shù)的參數(shù)優(yōu)化問題就有些過于復雜。

為了得到一個不太復雜的模型,常見的方法就是使用線性模型,因為線性模型能很好的解決凸優(yōu)化問題。但線性模型又過于簡單,其模型效果遠不及神經網絡。

黑魔法1:將神經網絡視為一個任意函數(shù),因此可以在同一空間優(yōu)化所有的函數(shù)f,而不是特定的神經網絡結構的參數(shù)theta。與使用參數(shù)和特定結構模型相比,這種方法非常簡潔。

將神經網絡視為一個函數(shù),保留了線性模型的諸多優(yōu)點:多種凸函數(shù)問題。例如,分類器的交叉熵損失在函數(shù)空間中就是一個凸優(yōu)化問題。

這個假設并不準確,特別是與線性模型相比。但是根據(jù)通用逼近定理,神經網絡可以較好地近似任意函數(shù)。

黑魔法2:如果你在同一空間優(yōu)化所有函數(shù)時遇到困難,可以將函數(shù)想象成一個高維向量的分量。此時,關于R^n中x的評估函數(shù)f(x),就變成了在一個向量中查找f_x,其中x是對分量的索引。

大云網官方微信售電那點事兒

責任編輯:電力交易小郭

免責聲明:本文僅代表作者個人觀點,與本站無關。其原創(chuàng)性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
我要收藏
個贊
?