国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

python生成器generator:深度學(xué)習(xí)讀取batch圖片的操作

瀏覽:5日期:2022-06-19 08:08:23

在深度學(xué)習(xí)中訓(xùn)練模型的過程中讀取圖片數(shù)據(jù),如果將圖片數(shù)據(jù)全部讀入內(nèi)存是不現(xiàn)實的,所以有必要使用生成器來讀取數(shù)據(jù)。

通過列表生成式,我們可以直接創(chuàng)建一個列表。但是,受到內(nèi)存限制,列表容量肯定是有限的。而且,創(chuàng)建一個包含100萬個元素的列表,不僅占用很大的存儲空間,如果我們僅僅需要訪問前面幾個元素,那后面絕大多數(shù)元素占用的空間都白白浪費了。

所以,如果列表元素可以按照某種算法推算出來,那我們是否可以在循環(huán)的過程中不斷推算出后續(xù)的元素呢?這樣就不必創(chuàng)建完整的list,從而節(jié)省大量的空間。在Python中,這種一邊循環(huán)一邊計算的機制,稱為生成器:generator。

創(chuàng)建generator有多種方法,第一種方法很簡單

只要把一個列表生成式的[]改成(),就創(chuàng)建了一個generator:

>>> L = [x * x for x in range(10)]>>> L[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]>>> g = (x * x for x in range(10))>>> g<generator object <genexpr> at 0x1022ef630>

list中的元素可以直接打印出來 ,generator要一個一個打印出來,

可以通過next()函數(shù)獲得generator的下一個返回值:

>>> next(g)0>>> next(g)1>>> next(g)4>>> next(g)9>>> next(g)16

generator保存的是算法,每次調(diào)用next(g),就計算出g的下一個元素的值,直到計算到最后一個元素,沒有更多的元素時,拋出StopIteration的錯誤。

上面這種不斷調(diào)用next(g)實在是太變態(tài)了

正確的方法是使用for循環(huán),因為generator也是可迭代對象:

>>> g = (x * x for x in range(10))>>> for n in g:... print(n)

著名的斐波拉契數(shù)列(Fibonacci),除第一個和第二個數(shù)外,任意一個數(shù)都可由前兩個數(shù)相加得到:

1, 1, 2, 3, 5, 8, 13, 21, 34, ...

斐波拉契數(shù)列用列表生成式寫不出來

但是,用函數(shù)把它打印出來卻很容易:

def fib(max): n, a, b = 0, 0, 1 while n < max:print(b)a, b = b, a + bn = n + 1 return ’done’

仔細觀察,可以看出,fib函數(shù)實際上是定義了斐波拉契數(shù)列的推算規(guī)則,可以從第一個元素開始,推算出后續(xù)任意的元素,這種邏輯其實非常類似generator。

也就是說,上面的函數(shù)和generator僅一步之遙。要把fib函數(shù)變成generator,只需要把print(b)改為yield b就可以了:

def fib(max): n, a, b = 0, 0, 1 while n < max:yield ba, b = b, a + bn = n + 1 return ’done’

這就是定義generator的另一種方法。如果一個函數(shù)定義中包含yield關(guān)鍵字,那么這個函數(shù)就不再是一個普通函數(shù),而是一個generator:

>>> f = fib(6)>>> f<generator object fib at 0x104feaaa0>

這里,最難理解的就是generator和函數(shù)的執(zhí)行流程不一樣。函數(shù)是順序執(zhí)行,遇到return語句或者最后一行函數(shù)語句就返回。而變成generator的函數(shù),在每次調(diào)用next()的時候執(zhí)行,遇到y(tǒng)ield語句返回,再次執(zhí)行時從上次返回的yield語句處繼續(xù)執(zhí)行。

在循環(huán)過程中不斷調(diào)用yield,就會不斷中斷。當(dāng)然要給循環(huán)設(shè)置一個條件來退出循環(huán),不然就會產(chǎn)生一個無限數(shù)列出來。

同樣的,把函數(shù)改成generator后,我們基本上從來不會用next()來獲取下一個返回值,而是直接使用for循環(huán)來迭代:

>>> for n in fib(6):... print(n)...最后在讀取圖片的實際應(yīng)用中的代碼如下:

def train_data(train_file,batch_size,resize_shape): datas, labels = read_data(train_file) num_batch = len(datas)//batch_size for i in range(num_batch):imgs = []train_datas = datas[batch_size*i:batch_size*(i+1)]train_lables = labels[batch_size*i:batch_size*(i+1)]for img_path in train_datas: img = cv2.imread(img_path) img = cv2.resize(img,resize_shape) img = img/255 #歸一化處理 imgs.append(img)yield np.array(imgs),np.array(train_lables)

補充:深度學(xué)習(xí)算法--fit_generator()函數(shù)使用

如果我們數(shù)據(jù)量很大,那么是不可能將所有數(shù)據(jù)載入內(nèi)存的,必將導(dǎo)致內(nèi)存泄漏,

這時候我們可以用fit_generator函數(shù)來進行訓(xùn)練

from keras.datasets import imdbfrom keras.preprocessing.sequence import pad_sequencesfrom keras.models import Sequentialfrom keras import layersimport numpy as npimport randomfrom sklearn.metrics import f1_score, accuracy_scoremax_features = 100maxlen = 50batch_size = 320(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)x_train = pad_sequences(x_train, maxlen=maxlen)x_test = pad_sequences(x_test, maxlen=maxlen)def generator(): while 1:row = np.random.randint(0, len(x_train), size=batch_size)x = np.zeros((batch_size, x_train.shape[-1]))y = np.zeros((batch_size,))x = x_train[row]y = y_train[row]yield x, y# generator()model = Sequential()model.add(layers.Embedding(max_features, 32, input_length=maxlen))model.add(layers.GRU(64, return_sequences=True))model.add(layers.GRU(32))# model.add(layers.Flatten())# model.add(layers.Dense(32,activation=’relu’))model.add(layers.Dense(1, activation=’sigmoid’))model.compile(optimizer=’rmsprop’, loss=’binary_crossentropy’, metrics=[’acc’])print(model.summary())# history = model.fit(x_train, y_train, epochs=1,batch_size=32, validation_split=0.2)# Keras中的fit()函數(shù)傳入的x_train和y_train是被完整的加載進內(nèi)存的,當(dāng)然用起來很方便,但是如果我們數(shù)據(jù)量很大,# 那么是不可能將所有數(shù)據(jù)載入內(nèi)存的,必將導(dǎo)致內(nèi)存泄漏,這時候我們可以用fit_generator函數(shù)來進行訓(xùn)練。# fit_generator函數(shù)必須傳入一個生成器,我們的訓(xùn)練數(shù)據(jù)也是通過生成器產(chǎn)生的history = model.fit_generator(generator(), epochs=1, steps_per_epoch=len(x_train) // (batch_size))print(model.evaluate(x_test, y_test))y = model.predict_classes(x_test)print(accuracy_score(y_test, y))

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 国产中的精品一区的 | 亚洲综合免费 | 欧美精品人爱a欧美精品 | 有码 在线 | 亚洲热播 | 久久有这有精品在线观看 | 成人免费网站视频www | 国产精品1区2区3区在线播放 | 韩国精品一区二区三区四区五区 | 免费人成在线观看网站品爱网 | 欧美一级毛片高清视频 | 国产韩国精品一区二区三区 | 国产日韩精品欧美一区 | 成人自拍视频 | 亚洲欧美偷拍自拍 | 免费观看欧美一级毛片 | 亚洲国产精品热久久2022 | 久久综合中文字幕一区二区三区 | 亚洲精品欧美精品一区二区 | 黄页网站18以下禁止观看 | 欧美怡红院免费全视频 | 国产成人精品久久综合 | 欧美成人在线影院 | 国产精品久久网 | 大胆gogo999亚洲肉体艺术 | 精品久久久久久久久久香蕉 | 欧美日韩在线观看精品 | 亚洲一区二区三区首页 | 成人三级在线观看 | 国产九九精品 | 免费国产一级特黄久久 | 99久久国产综合精品五月天 | 亚洲欧美日韩综合在线一区二区三区 | 久久厕所精品国产精品亚洲 | 国产精品久久久久影视不卡 | 中文字幕1区 | 欧美日韩一区二区三区免费 | 欧美日韩美女 | 美女wc | 老司机午夜在线视频免费观 | 亚洲国产精品自产拍在线播放 |