如何利用TensorFlow.js部署簡單AI版「你畫我猜」

如何利用TensorFlow.js部署簡單AI版「你畫我猜」

來自專欄機器之心93 人贊了文章

選自Medium,作者:Zaid Alyafeai,機器之心編譯,參與:Geek AI、路。

本文創建了一個簡單的工具來識別手繪圖像,並且輸出當前圖像的名稱。該應用無需安裝任何額外的插件,可直接在瀏覽器上運行。作者使用谷歌 Colab 來訓練模型,並使用 TensorFlow.js 將它部署到瀏覽器上。

代碼和 demo

  • demo 地址:zaidalyafeai.github.io/
  • 代碼地址:github.com/zaidalyafeai
  • 請通過以下鏈接在谷歌 Colab 上測試自己的 notebook:colab.research.google.com

數據集

我們將使用卷積神經網路(CNN)來識別不同類型的手繪圖像。這個卷積神經網路將在 Quick Draw 數據集(github.com/googlecreati)上接受訓練。該數據集包含 345 個類別的大約 5 千萬張手繪圖像。

部分圖像類別

流程

我們將使用 Keras 框架在谷歌 Colab 免費提供的 GPU 上訓練模型,然後使用 TensorFlow.js 直接在瀏覽器上運行模型。我在 TensorFlow.js 上創建了一個教程(medium.com/tensorflow/a)。在繼續下面的工作之前,請務必先閱讀一下這個教程。下圖為該項目的處理流程:

流程

在 Colab 上進行訓練

谷歌 Colab 為我們提供了免費的 GPU 處理能力。你可以閱讀下面的教程(medium.com/deep-learnin)了解如何創建 notebook 和開始進行 GPU 編程。

導入

我們將使用以 TensorFlow 作為後端、Keras 作為前端的編程框架

import osimport globimport numpy as npfrom tensorflow.keras import layersfrom tensorflow import keras import tensorflow as tf

載入數據

由於內存容量有限,我們不會使用所有類別的圖像進行訓練。我們僅使用數據集中的 100 個類別(raw.githubusercontent.com)。每個類別的數據可以在谷歌 Colab(console.cloud.google.com)上以 NumPy 數組的形式獲得,數組的大小為 [N, 784],其中 N 為某類圖像的數量。我們首先下載這個數據集:

import urllib.requestdef download(): base = https://storage.googleapis.com/quickdraw_dataset/full/numpy_bitmap/ for c in classes: cls_url = c.replace(_, %20) path = base+cls_url+.npy print(path) urllib.request.urlretrieve(path, data/+c+.npy)

由於內存限制,我們在這裡將每類圖像僅僅載入 5000 張。我們還將留出其中的 20% 作為測試數據。

def load_data(root, vfold_ratio=0.2, max_items_per_class= 5000 ): all_files = glob.glob(os.path.join(root, *.npy)) #initialize variables x = np.empty([0, 784]) y = np.empty([0]) class_names = [] #load a subset of the data to memory for idx, file in enumerate(all_files): data = np.load(file) data = data[0: max_items_per_class, :] labels = np.full(data.shape[0], idx) x = np.concatenate((x, data), axis=0) y = np.append(y, labels) class_name, ext = os.path.splitext(os.path.basename(file)) class_names.append(class_name) data = None labels = None #separate into training and testing permutation = np.random.permutation(y.shape[0]) x = x[permutation, :] y = y[permutation] vfold_size = int(x.shape[0]/100*(vfold_ratio*100)) x_test = x[0:vfold_size, :] y_test = y[0:vfold_size] x_train = x[vfold_size:x.shape[0], :] y_train = y[vfold_size:y.shape[0]] return x_train, y_train, x_test, y_test, class_names

數據預處理

我們對數據進行預處理操作,為訓練模型做準備。該模型將使用規模為 [N, 28, 28, 1] 的批處理,並且輸出規模為 [N, 100] 的概率。

# Reshape and normalizex_train = x_train.reshape(x_train.shape[0], image_size, image_size, 1).astype(float32)x_test = x_test.reshape(x_test.shape[0], image_size, image_size, 1).astype(float32)x_train /= 255.0x_test /= 255.0# Convert class vectors to class matricesy_train = keras.utils.to_categorical(y_train, num_classes)y_test = keras.utils.to_categorical(y_test, num_classes)

創建模型

我們將創建一個簡單的卷積神經網路。請注意,模型越簡單、參數越少越好。實際上,我們將把模型轉換到瀏覽器上然後再運行,並希望模型能在預測任務中快速運行。下面的模型包含 3 個卷積層和 2 個全連接層:

# Define modelmodel = keras.Sequential()model.add(layers.Convolution2D(16, (3, 3), padding=same, input_shape=x_train.shape[1:], activation=relu))model.add(layers.MaxPooling2D(pool_size=(2, 2)))model.add(layers.Convolution2D(32, (3, 3), padding=same, activation= relu))model.add(layers.MaxPooling2D(pool_size=(2, 2)))model.add(layers.Convolution2D(64, (3, 3), padding=same, activation= relu))model.add(layers.MaxPooling2D(pool_size =(2,2)))model.add(layers.Flatten())model.add(layers.Dense(128, activation=relu))model.add(layers.Dense(100, activation=softmax)) # Train modeladam = tf.train.AdamOptimizer()model.compile(loss=categorical_crossentropy, optimizer=adam, metrics=[top_k_categorical_accuracy])print(model.summary())

擬合、驗證及測試

在這之後我們對模型進行了 5 輪訓練,將訓練數據分成了 256 批輸入模型,並且分離出 10% 作為驗證集。

#fit the model model.fit(x = x_train, y = y_train, validation_split=0.1, batch_size = 256, verbose=2, epochs=5)#evaluate on unseen datascore = model.evaluate(x_test, y_test, verbose=0)print(Test accuarcy: {:0.2f}%.format(score[1] * 100))

訓練結果如下圖所示:

測試準確率達到了 92.20% 的 top 5 準確率。

準備 WEB 格式的模型

在我們得到滿意的模型準確率後,我們將模型保存下來,以便進行下一步的轉換。

model.save(keras.h5)

為轉換安裝 tensorflow.js:

!pip install tensorflowjs

接著我們對模型進行轉換:

!mkdir model!tensorflowjs_converter --input_format keras keras.h5 model/

這個步驟將創建一些權重文件和包含模型架構的 json 文件。

通過 zip 將模型進行壓縮,以便將其下載到本地機器上:

!zip -r model.zip model

最後下載模型:

from google.colab import filesfiles.download(model.zip)

在瀏覽器上進行推斷

本節中,我們將展示如何載入模型並且進行推斷。假設我們有一個尺寸為 300*300 的畫布。在這裡,我們不會詳細介紹函數介面,而是將重點放在 TensorFlow.js 的部分。

載入模型

為了使用 TensorFlow.js,我們首先使用下面的腳本:

<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@latest"> </script>

你的本地機器上需要有一台運行中的伺服器來託管權重文件。你可以在 GitHub 上創建一個 apache 伺服器或者託管網頁,就像我在我的項目中所做的那樣(github.com/zaidalyafeai)。

接著,通過下面的代碼將模型載入到瀏覽器:

model = await tf.loadModel(model/model.json)

關鍵字 await 的意思是等待模型被瀏覽器載入。

預處理

在進行預測前,我們需要對數據進行預處理。首先從畫布中獲取圖像數據:

//the minimum boudning box around the current drawingconst mbb = getMinBox()//cacluate the dpi of the current window const dpi = window.devicePixelRatio//extract the image data const imgData = canvas.contextContainer.getImageData(mbb.min.x * dpi, mbb.min.y * dpi, (mbb.max.x - mbb.min.x) * dpi, (mbb.max.y - mbb.min.y) * dpi);

文章稍後將介紹 getMinBox()。dpi 變數被用於根據屏幕像素的密度對裁剪出的畫布進行拉伸。

我們將畫布當前的圖像數據轉化為一個張量,調整大小並進行歸一化處理:

function preprocess(imgData){return tf.tidy(()=>{ //convert the image data to a tensor let tensor = tf.fromPixels(imgData, numChannels= 1) //resize to 28 x 28 const resized = tf.image.resizeBilinear(tensor, [28, 28]).toFloat() // Normalize the image const offset = tf.scalar(255.0); const normalized = tf.scalar(1.0).sub(resized.div(offset)); //We add a dimension to get a batch shape const batched = normalized.expandDims(0) return batched})}

我們使用 model.predict 進行預測,這將返回一個規模為「N, 100」的概率。

const pred = model.predict(preprocess(imgData)).dataSync()

我們可以使用簡單的函數找到 top 5 概率。

提升準確率

請記住,我們的模型接受的輸入數據是規模為 [N, 28, 28, 1] 的張量。我們繪圖畫布的尺寸為 300*300,這可能是兩個手繪圖像的大小,或者用戶可以在上面繪製一個小圖像。最好只裁剪包含當前手繪圖像的方框。為了做到這一點,我們通過找到左上方和右下方的點來提取圍繞圖像的最小邊界框。

//record the current drawing coordinates function recordCoor(event){ //get current mouse coordinate var pointer = canvas.getPointer(event.e); var posX = pointer.x; var posY = pointer.y; //record the point if withing the canvas and the mouse is pressed if(posX >=0 && posY >= 0 && mousePressed) { coords.push(pointer) } }//get the best bounding box by finding the top left and bottom right cornders function getMinBox(){ var coorX = coords.map(function(p) {return p.x}); var coorY = coords.map(function(p) {return p.y}); //find top left corner var min_coords = { x : Math.min.apply(null, coorX), y : Math.min.apply(null, coorY) } //find right bottom corner var max_coords = { x : Math.max.apply(null, coorX), y : Math.max.apply(null, coorY) } return { min : min_coords, max : max_coords }}

用手繪圖像進行測試

下圖顯示了一些第一次繪製的圖像以及準確率最高的類別。所有的手繪圖像都是我用滑鼠畫的,用筆繪製的話應該會得到更高的準確率。

原文鏈接:medium.com/tensorflow/t


推薦閱讀:

TAG:人工智慧 | TensorFlow | 深度學習DeepLearning |