はじめに iOS11から登場したCoreMLフレームワークを使って、Kerasで実装したニューラルネットを動かしてみました。画像認識や自然言語処理のCoreMLのサンプルはあったのですが、iPhoneから取得したセンサーデータをRNN(Recurrent Neural Network、再帰型ニューラルネットワーク)で認識させた例がなかったようなのでトライしてみました。 以下の記事では、○・□・△・✕を描くジェスチャーの認識を行うRNNの学習とCoreMLでの活用について紹介します。 デモ 認識したジェスチャーに応じてHTTPリクエストを送ってSlackにメッセージを送る例 : iOSアプリのスクショ : 真ん中のボタンを押している間(最大4秒)だけジェスチャーのセンサーデータを取得して、ボタンを話したらニューラルネットにより認識を行います。 レポジトリ・学習済みモデル akimach/Ge
