LearnFromPapers系列——標簽增強技術(Label Enhancement) 作者:郭必揚 時間:2020.12.29 前言:我們...

LearnFromPapers系列——標簽增強技術(Label Enhancement) 作者:郭必揚 時間:2020.12.29 前言:我們...
前言: PyTorch的torch.nn中包含了各種神經網絡層、激活函數、損失函數等等的類。我們通過torch.nn來創建對象,搭建網絡。PyT...
他山之玉——窺探CNN經典模型 上一篇文章介紹了CNN的基礎知識以及它的優勢,今天這篇文章主要來看一看一些著名的卷積神經網絡的結構特點,以便我們...
初識卷積神經網絡(CNN) 從今天起,正式開始講解卷積神經網絡。這是一種曾經讓我無論如何也無法弄明白的東西,主要是名字就太“高級”了,網上的各種...
使用TensorFlow搭建神經網絡——手寫數字識別 之前又有很長一段時間在講理論,上次實踐還是用python實現Logistic regres...
深度學習中的正則化(Regularization) 一、Bias(偏差) & Variance(方差) 在機器學習中,這兩個名詞經常讓我們傻傻分...
深度學習中的的超參數調節 我們平時一直都在說“調參、調參”,但實際上,不是調“參數”,而是調“超參數”。 一、參數(Parameter)和超參數...
神經網絡的每一層基本都是在一個線性運算后面來一個非線性激活函數(Activation function),再把值傳給下一層的。激活函數有多種,這...
好久沒寫了,之前是每周都會寫一兩篇,前段時候回家陪爸媽旅游了 ̄▽ ̄,這段時候又在學習keras并復現一些模型,所以一直沒寫。今天8月第一天,趕緊...
窮學生學習神經網絡一定體會過“等待”的痛苦。。。循環一次epoch急死人,但是有幾十個上百個循環等著你!你盯著屏幕看著進度條像蝸牛一樣推進,真是...