python實(shí)例之神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)and邏輯運(yùn)算

參考文章:
https://www.zybuluo.com/hanbingtao/note/433855
reduce:https://www.cnblogs.com/XXCXY/p/5180245.html
lambda:https://www.cnblogs.com/caizhao/p/7905094.html
zip:https://blog.csdn.net/shijichao2/article/details/51295676

幾個(gè)函數(shù)介紹

[0.0 for _ in range(input_num)] 創(chuàng)建一個(gè)共有input_num個(gè)元素且每個(gè)元素都是0.0的列表

lambda表達(dá)式

g = lambda x:x+1

定義了一個(gè)匿名函數(shù),等同于

def g(x):
  return x+1

reduce函數(shù)

def f(x, y):
    return x + y
reduce(f, [1, 3, 5, 7, 9])

reduce函數(shù)將做如下計(jì)算:
1.先計(jì)算頭兩個(gè)元素:f(1, 3),結(jié)果為4;
2.再把結(jié)果和第3個(gè)元素計(jì)算:f(4, 5),結(jié)果為9;
3.再把結(jié)果和第4個(gè)元素計(jì)算:f(9, 7),結(jié)果為16;
4.再把結(jié)果和第5個(gè)元素計(jì)算:f(16, 9),結(jié)果為25;
5.由于沒(méi)有更多的元素了,計(jì)算結(jié)束,返回結(jié)果25。
reduce()還可以接收第3個(gè)可選參數(shù),作為計(jì)算的初始值。如果把初始值設(shè)為100,計(jì)算初始值和第一個(gè)元素:f(100, 1),結(jié)果為101。最終結(jié)果將變?yōu)?25。

zip函數(shù)

a, b = [0, 1], [2, 3]
ab = zip(a, b)
print(list(ab))
# [(0, 2), (1, 3)]

將兩個(gè)列表壓縮成組成元組的列表

map函數(shù)
map()是 Python 內(nèi)置的高階函數(shù),它接收一個(gè)函數(shù) f 和一個(gè) list,并通過(guò)把函數(shù) f 依次作用在 list 的每個(gè)元素上,得到一個(gè)新的 list 并返回。

def f(x):
    return x*x
print map(f, [1, 2, 3, 4, 5, 6, 7, 8, 9])
#[1, 4, 9, 10, 25, 36, 49, 64, 81]

實(shí)例

class Perceptron(object):
    def __init__(self, input_num, activator):
        '''
        初始化感知器,設(shè)置輸入?yún)?shù)的個(gè)數(shù),以及激活函數(shù)。
        激活函數(shù)的類型為double -> double
        '''
        self.activator = activator
        # 權(quán)重向量初始化為0
        self.weights = [0.0 for _ in range(input_num)]
        # 偏置項(xiàng)初始化為0
        self.bias = 0.0
    def __str__(self):
        '''
        打印學(xué)習(xí)到的權(quán)重、偏置項(xiàng)
        '''
        return 'weights\t:%s\nbias\t:%f\n' % (self.weights, self.bias)
    def predict(self, input_vec):
        '''
        輸入向量,輸出感知器的計(jì)算結(jié)果
        '''
        # 把input_vec[x1,x2,x3...]和weights[w1,w2,w3,...]打包在一起
        # 變成[(x1,w1),(x2,w2),(x3,w3),...]
        # 然后利用map函數(shù)計(jì)算[x1*w1, x2*w2, x3*w3]
        # 最后利用reduce求和
        return self.activator(
            reduce(lambda a, b: a + b,
                   map(lambda (x, w): x * w,  
                       zip(input_vec, self.weights))
                , 0.0) + self.bias)
    def train(self, input_vecs, labels, iteration, rate):
        '''
        輸入訓(xùn)練數(shù)據(jù):一組向量、與每個(gè)向量對(duì)應(yīng)的label;以及訓(xùn)練輪數(shù)、學(xué)習(xí)率
        '''
        for i in range(iteration):
            self._one_iteration(input_vecs, labels, rate)
    def _one_iteration(self, input_vecs, labels, rate):
        '''
        一次迭代,把所有的訓(xùn)練數(shù)據(jù)過(guò)一遍
        '''
        # 把輸入和輸出打包在一起,成為樣本的列表[(input_vec, label), ...]
        # 而每個(gè)訓(xùn)練樣本是(input_vec, label)
        samples = zip(input_vecs, labels)
        # 對(duì)每個(gè)樣本,按照感知器規(guī)則更新權(quán)重
        for (input_vec, label) in samples:
            # 計(jì)算感知器在當(dāng)前權(quán)重下的輸出
            output = self.predict(input_vec)
            # 更新權(quán)重
            self._update_weights(input_vec, output, label, rate)
    def _update_weights(self, input_vec, output, label, rate):
        '''
        按照感知器規(guī)則更新權(quán)重
        '''
        # 把input_vec[x1,x2,x3,...]和weights[w1,w2,w3,...]打包在一起
        # 變成[(x1,w1),(x2,w2),(x3,w3),...]
        # 然后利用感知器規(guī)則更新權(quán)重
        delta = label - output
        self.weights = map(
            lambda (x, w): w + rate * delta * x,
            zip(input_vec, self.weights))
        # 更新bias
        self.bias += rate * delta

接下來(lái),我們利用這個(gè)感知器類去實(shí)現(xiàn)and函數(shù)。

def f(x):
    '''
    定義激活函數(shù)f
    '''
    return 1 if x > 0 else 0
def get_training_dataset():
    '''
    基于and真值表構(gòu)建訓(xùn)練數(shù)據(jù)
    '''
    # 構(gòu)建訓(xùn)練數(shù)據(jù)
    # 輸入向量列表
    input_vecs = [[1,1], [0,0], [1,0], [0,1]]
    # 期望的輸出列表,注意要與輸入一一對(duì)應(yīng)
    # [1,1] -> 1, [0,0] -> 0, [1,0] -> 0, [0,1] -> 0
    labels = [1, 0, 0, 0]
    return input_vecs, labels    
def train_and_perceptron():
    '''
    使用and真值表訓(xùn)練感知器
    '''
    # 創(chuàng)建感知器,輸入?yún)?shù)個(gè)數(shù)為2(因?yàn)閍nd是二元函數(shù)),激活函數(shù)為f
    p = Perceptron(2, f)
    # 訓(xùn)練,迭代10輪, 學(xué)習(xí)速率為0.1
    input_vecs, labels = get_training_dataset()
    p.train(input_vecs, labels, 10, 0.1)
    #返回訓(xùn)練好的感知器
    return p
if __name__ == '__main__': 
    # 訓(xùn)練and感知器
    and_perception = train_and_perceptron()
    # 打印訓(xùn)練獲得的權(quán)重
    print and_perception
    # 測(cè)試
    print '1 and 1 = %d' % and_perception.predict([1, 1])
    print '0 and 0 = %d' % and_perception.predict([0, 0])
    print '1 and 0 = %d' % and_perception.predict([1, 0])
    print '0 and 1 = %d' % and_perception.predict([0, 1])

python3的可執(zhí)行代碼,注意和python2的區(qū)別:

from _functools import  reduce

class Perceptron(object):
    def __init__(self, input_num, activator):
        '''
        初始化感知器,設(shè)置輸入?yún)?shù)的個(gè)數(shù),以及激活函數(shù)。
        激活函數(shù)的類型為double -> double
        '''
        self.activator = activator
        # 權(quán)重向量初始化為0
        self.weights = [0.0 for _ in range(input_num)]
        # 偏置項(xiàng)初始化為0
        self.bias = 0.0
    def __str__(self):
        '''
        打印學(xué)習(xí)到的權(quán)重、偏置項(xiàng)
        '''
        return 'weights\t:%s\nbias\t:%f\n' % (self.weights, self.bias)
    def predict(self, input_vec):
        '''
        輸入向量,輸出感知器的計(jì)算結(jié)果
        '''
        # 把input_vec[x1,x2,x3...]和weights[w1,w2,w3,...]打包在一起
        # 變成[(x1,w1),(x2,w2),(x3,w3),...]
        # 然后利用map函數(shù)計(jì)算[x1*w1, x2*w2, x3*w3]
        # 最后利用reduce求和
        return self.activator(
            reduce(lambda a, b: a + b,
                   map(lambda x, w: x * w
                       , input_vec, self.weights)
                , 0.0) + self.bias)
    def train(self, input_vecs, labels, iteration, rate):
        '''
        輸入訓(xùn)練數(shù)據(jù):一組向量、與每個(gè)向量對(duì)應(yīng)的label;以及訓(xùn)練輪數(shù)、學(xué)習(xí)率
        '''
        for i in range(iteration):
            self._one_iteration(input_vecs, labels, rate)
    def _one_iteration(self, input_vecs, labels, rate):
        '''
        一次迭代,把所有的訓(xùn)練數(shù)據(jù)過(guò)一遍
        '''
        # 把輸入和輸出打包在一起,成為樣本的列表[(input_vec, label), ...]
        # 而每個(gè)訓(xùn)練樣本是(input_vec, label)
        samples = zip(input_vecs, labels)
        # 對(duì)每個(gè)樣本,按照感知器規(guī)則更新權(quán)重
        for (input_vec, label) in samples:
            # 計(jì)算感知器在當(dāng)前權(quán)重下的輸出
            output = self.predict(input_vec)
            # 更新權(quán)重
            self._update_weights(input_vec, output, label, rate)

    def _update_weights(self, input_vec, output, label, rate):
        '''
        按照感知器規(guī)則更新權(quán)重
        '''
        # 把input_vec[x1,x2,x3,...]和weights[w1,w2,w3,...]打包在一起
        # 變成[(x1,w1),(x2,w2),(x3,w3),...]
        # 然后利用感知器規(guī)則更新權(quán)重
        delta = label - output
        self.weights = list(map(
            lambda x, w: w + rate * delta * x,
            input_vec, self.weights))
        # 更新bias
        self.bias += rate * delta
        #print('weights\t:%s\nbias\t:%f\n'%(self.weights, self.bias))


def f(x):
    '''
    定義激活函數(shù)f
    '''
    return 1 if x > 0 else 0

def get_training_dataset():
    '''
    基于and真值表構(gòu)建訓(xùn)練數(shù)據(jù)
    '''
    # 構(gòu)建訓(xùn)練數(shù)據(jù)
    # 輸入向量列表
    input_vecs = [[1,1], [0,0], [1,0], [0,1]]
    # 期望的輸出列表,注意要與輸入一一對(duì)應(yīng)
    # [1,1] -> 1, [0,0] -> 0, [1,0] -> 0, [0,1] -> 0
    labels = [1, 0, 0, 0]
    return input_vecs, labels
def train_and_perceptron():
    '''
    使用and真值表訓(xùn)練感知器
    '''
    # 創(chuàng)建感知器,輸入?yún)?shù)個(gè)數(shù)為2(因?yàn)閍nd是二元函數(shù)),激活函數(shù)為f
    p = Perceptron(2, f)
    # 訓(xùn)練,迭代10輪, 學(xué)習(xí)速率為0.1
    input_vecs, labels = get_training_dataset()
    p.train(input_vecs, labels, 10, 0.1)
    #返回訓(xùn)練好的感知器
    return p
if __name__ == '__main__':
    # 訓(xùn)練and感知器
    and_perception = train_and_perceptron()
    # 打印訓(xùn)練獲得的權(quán)重
    print(and_perception)
    # 測(cè)試
    print('1 and 1 = %d' % and_perception.predict([1, 1]))
    print('0 and 0 = %d' % and_perception.predict([0, 0]))
    print('1 and 0 = %d' % and_perception.predict([1, 0]))
    print('0 and 1 = %d' % and_perception.predict([0, 1]))
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容