タグ

ブックマーク / shu223.hatenablog.com (7)

  • iOSと機械学習 - その後のその後

    ビッグデータとかの機械学習隆盛の背景にある文脈や、その拠り所となるコンピュータの処理性能から考えても「モバイルデバイス向けOSと機械学習を紐付けて考えようとする」ことはそもそもあまり筋がよろしくない・・・とは思うのですが、やはり長くiOSだけにコミットしてきた身としては、新たに興味を持っている機械学習という分野と、勝手知ったるiOSという分野の交差点はないのかなと考えずにはいられないわけでして。。 そんなわけで、「iOS と機械学習」について雑多な切り口から調べてみました。 iOSで使える機械学習ライブラリ DeepBeliefSDK コンボリューショナルニューラルネットワークを用いた画像認識ライブラリ。iOSとかのモバイルデバイスで処理できるよう、高度に最適化してある、OpenCVと一緒に使うのも簡単、とのこと。 https://github.com/jetpacapp/DeepBeli

    iOSと機械学習 - その後のその後
  • 機械学習はじめの一歩に役立つ記事のまとめ - その後のその後

    機械学習」というワードになんとなく惹かれつつも、具体的にやりたいことがあるわけでもないので、手を動かすことなくただひたすら「いつかやる」ために解説記事やチュートリアル記事を集める日々を過ごしていたのですが、このままじゃイカン!と Machine Learning Advent Calendar 2014 - Qiita に参加登録してみました。 が、やはり何もしないまま当日を迎えてしまったので、お茶濁しではありますが、せめて「機械学習ってどんな手法やライブラリがあって、どんな応用先があるのか?」というあたりをざっくり把握して最初に何をやるのか方向付けをするためにも、たまりにたまった機械学習系の記事をいったん整理してみようと思います。 機械学習の概要 特定のライブラリや手法の話ではなく、機械学習全般に関する解説。 機械学習チュートリアル@Jubatus Casual Talks 機械学習

    機械学習はじめの一歩に役立つ記事のまとめ - その後のその後
  • 【WatchKit】Apple Watch アプリのつくり方 & 全API解説 - その後のその後

    Apple Watch の SDK である『WatchKit』がリリースされてたので、さっそくさわってみました。 以下、サンプル実行方法、AppleWatchアプリの実装方法(所要時間1分、プログラミング不要!)、全クラス解説の順に書いていきます。 ※記事は、Appleによる公開ドキュメント(ログイン不要領域にあるもの)の範囲で書いています。 サンプル実行方法 何はともあれまずはサンプル実行。 iPhone6 シミュレータとかの並びに Apple Watch とかが来るのかなと思ってたので、一瞬サンプルをどう実行してよいのか面らいましたが、シミュレータメニューから [Hardware] > [External Displays] > [Apple Watch - 38mm] または [Apple Watch - 42mm] を選択 で、Apple Watch サイズの外部ディスプレイシ

    【WatchKit】Apple Watch アプリのつくり方 & 全API解説 - その後のその後
  • コネクタを挿すだけで電子工作!GROVEシステムのセンサ・アクチュエータのまとめ - その後のその後

    konashi + GROVE拡張ボード、あるいは Arduino + ベースシールド を使うと、 コネクタを挿すだけ でセンサやアクチュエータを使用した回路を作成できるようになります。 ハンダ付けやブレッドボード上で回路を組む必要がないので、格的なハードの開発はハード屋さんに任せる想定で、iOSアプリ側に専念したい僕のような人間には超ありがたいシステムです。 ※詳細は下記連載記事をご参照ください 第1回 「konashi」とiOSアプリを連携させる:iOSアプリと連携させて使えるデバイスたち|gihyo.jp … 技術評論社 いろいろセンサ類を揃えておくとプロトタイピングの際に便利なので、家GROVEサイト(海外)ではなく、Amazon.co.jpでさくっと買えるモジュールを調べてみました *1。 センサ(I2C) I2C デジタル光センサ GROVE - I2C デジタル光センサp

    コネクタを挿すだけで電子工作!GROVEシステムのセンサ・アクチュエータのまとめ - その後のその後
  • 独立して最初の3ヵ月間にやったお仕事のまとめ - その後のその後

    フリーランスのiOSエンジニアになって早3ヵ月経ちました。個人になると自らアピールしていかないと世の中的には何もしてないことになってしまうので、この3ヶ月間(2月〜4月)にやったお仕事について書いておこうと思います。 (※まだ4月の途中なので、追記する可能性大です) 実店舗へのiBeacon導入 火鍋専門店『小肥羊』をチェーン展開している ウェブクルー 社よりお話をいただき、実店舗へ iBeacon を導入するサービス検討/検証 のお手伝いをさせていただきました。 iBeacon+実店舗の初仕事がリリースされました(&独立のご報告) - その後のその後 具体的には、番アプリ開発の前段階として、下記のような機能を持つ実証実験用アプリ(非公開)を開発し、 店に近づくと通知が来て地図が出て道案内してくれる 入店するとメニュー等のUIが有効になる 入店後しばらくするとおすすめメニューを通知 退店

    独立して最初の3ヵ月間にやったお仕事のまとめ - その後のその後
  • フリーの iOS 向け音声認識/音声合成ライブラリ『OpenEars』の使い方 - その後のその後

    OpenEars は Politepix 社より提供されているフリーの iOS 向け音声認識音声合成Text to Speech, TTS)ライブラリです。 OpenEars 話した言葉を認識したり、入力した文字列を読み上げたり(mac の say コマンドみたいなもの)することができます。 試してみたところ超簡単に使えたので、自分のアプリに OpenEars を導入する方法を紹介します。 音声合成の導入方法 フレームワーク追加、ヘッダインポートといった一般的なライブラリの導入手順をのぞけば、基的にはメソッドを1つ呼ぶだけで導入できます。 1. フレームワークをプロジェクトに追加 解凍したフォルダ配下にあるFrameworkフォルダごとプロジェクトに追加します。フォルダには OpenEars.framework、Slt.framework ほか、言語モデルや辞書が入っています。 また

    フリーの iOS 向け音声認識/音声合成ライブラリ『OpenEars』の使い方 - その後のその後
  • 評判のいいiOSアプリ開発のTips ベスト20 - その後のその後

    『iOSアプリ開発に役立つTips』という Facebook ページをやっておりまして、そこで評判が良かった投稿(※)を 20 個ほど紹介します。 (※) Facebook ページの insights にある「クチコミ度」で判断しました アプリ実行中にコードを修正してそのまま実行中のアプリに反映させる アプリ実行中にコードを修正してそのまま実行中のアプリに反映させることができるXcodeプラグイン。 実機でもシミュレータでも使用可能とのこと。実機での動作検証中に修正して再インストールは時間かかるので、超ありがたいかも。 Injection for Xcode 投稿:2013/2/4 「PCのwebブラウザからiPhoneのカメラロールにアクセスできるようにするアプリ」のしくみ アプリ側でURLを発行している画面キャプチャがあるので、アプリにHTTPサーバ機能をもたせて(古いけどCocoaH

  • 1