
卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中的一個(gè)里程碑式的技術(shù),有了這個(gè)技術(shù),才會(huì)讓計(jì)算機(jī)有能力理解圖片和視頻信息,才會(huì)有計(jì)算機(jī)視覺(jué)的眾多應(yīng)用。 本文討論卷積神經(jīng)...
1 推理大模型與普通大模型的區(qū)別 推理大模型普通大模型目標(biāo)側(cè)重于推理能力、解決復(fù)雜問(wèn)題的能力側(cè)重于語(yǔ)言生成、上下文理解和自然語(yǔ)言處理運(yùn)算原理運(yùn)算...
什么叫過(guò)擬合和欠擬合? 我們?cè)谀P陀?xùn)練的時(shí)候,通過(guò)把數(shù)據(jù)劃分成訓(xùn)練集和測(cè)試集,然后選擇Loss函數(shù)來(lái)評(píng)估訓(xùn)練效果怎么樣,其loss函數(shù)在訓(xùn)練集上...
之前所學(xué)的全連接神經(jīng)網(wǎng)絡(luò)(DNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),他們的前一個(gè)輸入和后一個(gè)輸入是沒(méi)有關(guān)系的(從輸入層到隱含層再到輸出層,層與層之間是全...
上篇波士頓房?jī)r(jià)預(yù)測(cè)使用了線性回歸模型,適用于連續(xù)型目標(biāo)變量的回歸問(wèn)題,其取值范圍(-∞,+∞)。邏輯回歸模型(Logistic回歸模型)常用于二...
波士頓房?jī)r(jià)預(yù)測(cè)是一個(gè)經(jīng)典案例,類(lèi)似于XX語(yǔ)言的Hello World。本文我們學(xué)習(xí)這個(gè)案例,體會(huì)深度學(xué)習(xí)的過(guò)程。波斯頓房?jī)r(jià)可能受影響的因素一共有...
Pytorch的數(shù)據(jù)加載主要依賴torch.utils.data.Dataset和torch.utils.data.DataLoader兩個(gè)模塊...
本文認(rèn)識(shí)文本預(yù)處理以及它的作用、以及文本預(yù)處理有哪些主要環(huán)節(jié)。文本預(yù)處理是指在將文本數(shù)據(jù)用于深度學(xué)習(xí)模型訓(xùn)練之前,對(duì)文本數(shù)據(jù)進(jìn)行一系列的清洗、轉(zhuǎn)...
1 什么是pytorch? PyTorch是一個(gè)基于Numpy的科學(xué)計(jì)算包,它主要有兩個(gè)特點(diǎn):第一,是GPU加速的張量計(jì)算;第二,是構(gòu)建和訓(xùn)練神...