タグ

ブックマーク / shu223.hatenablog.com (15)

  • API Diffsから見る iOS 11 の新機能 #WWDC17 - その後のその後

    今年はWWDC会場よりお送りしております。特に何も期待しないまま参加したのですが、開発者的には非常にワクワクする発表がたくさんありました。 基調講演の内容からではなく、ベータ公開されたiOS Dev CenterのAPIリファレンスを見て、個人的に/開発者目線から気になった新APIを挙げていきます。 Core ML iOS 10からMetal Performance Shaders(以下MPS)に追加されたCNN関連機能、足りないものが色々とあり、ここらへんは拡充されたら嬉しいなとは思っていましたが、新フレームワークとして登場しました。 おいおい、さらに増えたら MPSCNN / BNNS / Core ML とどう使い分けるんだ、と思いましたが、ドキュメントの図で棲み分けがわかりました。 Keras や Caffe で学習したモデルを BNNS や MPSCNN で使えるようにするのが

    API Diffsから見る iOS 11 の新機能 #WWDC17 - その後のその後
    KatagiriSo
    KatagiriSo 2017/06/14
    勉強になりました。
  • TensorFlowをiOSで動かしてみる - その後のその後

    TensorFlow に iOS サポートが追加された というニュースを見かけたので、ビルドして、iOSで動作させてみました。 (たまたま目の前にあった扇風機もバッチリ認識してくれました) 記事では最終的にうまくいった手順を書いています。この手順をなぞってみるにあたってTensorFlowや機械学習・ディープラーニングについての専門知識は不要ですのでぜひお試しください! ビルド手順 (2017.4.15追記)v1.1.0 RC2 のビルド 現時点での最新Release(候補)である v1.1.0 RC2 も、tensorflow/contrib/makefile/build_all_ios.sh を実行するだけでビルドできました。 (2016.8.22追記)v0.10.0 RC0 のビルド 現時点での最新Releaseである v0.10.0 RC0 は、上記手順でビルドしようとすると c

    TensorFlowをiOSで動かしてみる - その後のその後
  • 【UIScrollView × Autolayout 問題】Appleエンジニア直伝のファイナルアンサー - その後のその後

    iPhone6,6Plus サポートとか LaunchScreen.xib とか Size Class とか考えると、もはや Autolayout は必須な感じになってきてます。 http://d.hatena.ne.jp/shu223/20141002/1412209257 で、Autolayout ✕ UIScrollView の例の問題(UIScrollView のサイズを superview との制約で動的に変えるときにその中身も動的に変えたい、ってやつ。こんな雑な説明でもハマったことある人にはわかっていただけるかと・・・)、Apple 公式でこんなドキュメントが出てますが、 Technical Note TN2154: UIScrollView And Autolayout "Mixed Approach" とかなんか筋が悪い感じだし、"Pure Auto Layout Appr

    【UIScrollView × Autolayout 問題】Appleエンジニア直伝のファイナルアンサー - その後のその後
  • iOSと機械学習 - その後のその後

    ビッグデータとかの機械学習隆盛の背景にある文脈や、その拠り所となるコンピュータの処理性能から考えても「モバイルデバイス向けOSと機械学習を紐付けて考えようとする」ことはそもそもあまり筋がよろしくない・・・とは思うのですが、やはり長くiOSだけにコミットしてきた身としては、新たに興味を持っている機械学習という分野と、勝手知ったるiOSという分野の交差点はないのかなと考えずにはいられないわけでして。。 そんなわけで、「iOS と機械学習」について雑多な切り口から調べてみました。 iOSで使える機械学習ライブラリ DeepBeliefSDK コンボリューショナルニューラルネットワークを用いた画像認識ライブラリ。iOSとかのモバイルデバイスで処理できるよう、高度に最適化してある、OpenCVと一緒に使うのも簡単、とのこと。 https://github.com/jetpacapp/DeepBeli

    iOSと機械学習 - その後のその後
  • 独立してから第3四半期目の実績まとめ - その後のその後

    3ヶ月ごとにフリーランスとしてやらせていただいたお仕事をまとめています。 2014年5月〜7月にやったお仕事のまとめ - その後のその後 独立して最初の3ヵ月間にやったお仕事のまとめ - その後のその後 とくに会計年度を定めてるわけじゃなくて、3ヶ月ごとに書いてて3回目なので「第3四半期目」と題しました。時期的には2014年8月〜10月です。 概要 ざっくり書いておくと、こんな感じです。 【新規】 SmartDrive 車とスマートフォンをつなぐデバイスとアプリをつくっているスタートアップ 書籍の執筆 iOS × BLE の技術書 konashiの開発者、松村礼央さんとの共著 海外書籍のレビュー とある海外出版社のiOS 8 技術書のレビュアー 1〜数人日の作り切りアプリ開発数件 講演、登壇いくつか iOS8-Sampler 個人でやってるOSSプロジェクト GitHub Trending

    独立してから第3四半期目の実績まとめ - その後のその後
    KatagiriSo
    KatagiriSo 2014/11/19
    BLE関連。楽しそう。
  • 【WatchKit】Apple Watch アプリのつくり方 & 全API解説 - その後のその後

    Apple Watch の SDK である『WatchKit』がリリースされてたので、さっそくさわってみました。 以下、サンプル実行方法、AppleWatchアプリの実装方法(所要時間1分、プログラミング不要!)、全クラス解説の順に書いていきます。 ※記事は、Appleによる公開ドキュメント(ログイン不要領域にあるもの)の範囲で書いています。 サンプル実行方法 何はともあれまずはサンプル実行。 iPhone6 シミュレータとかの並びに Apple Watch とかが来るのかなと思ってたので、一瞬サンプルをどう実行してよいのか面らいましたが、シミュレータメニューから [Hardware] > [External Displays] > [Apple Watch - 38mm] または [Apple Watch - 42mm] を選択 で、Apple Watch サイズの外部ディスプレイシ

    【WatchKit】Apple Watch アプリのつくり方 & 全API解説 - その後のその後
    KatagiriSo
    KatagiriSo 2014/11/19
    連携ありきなのですな。
  • Xcode 6 時代のマルチデバイス対応 〜Size Classとベクター画像〜 - その後のその後

    とあるお仕事で、iPad をサポート(= Universal 化)してほしいという要望があり、せっかくなので iPhone 6 / 6 Plus (4.7 / 5.5 inch スクリーン)もサポートしようってことで、新しい Xcode 6 の新しい仕組みである Size Class を使って複数画面対応を行ないました。あと、同じく Xcode 6 から Asset Catalog でベクター形式がサポートされるようになったので、こちらもトライしてみました。 で、そのときに学んだ諸々の断片的なメモです。勘違いもあるかもしれないのでその際は優しくご指摘いただけますと幸いです。 ※ちなみに Size Class やベクター形式画像の使用は iOS 8 以上縛りではありません。単に Xcode 6 の新機能というだけなので。 Size Class の前提知識をつける 「Size Classsとは

    Xcode 6 時代のマルチデバイス対応 〜Size Classとベクター画像〜 - その後のその後
  • iOS 7 で使えるフォント名一覧 - その後のその後

    『iOS 7 の隠しフォント, ヒラギノ角ゴ W1/W2 を CSS で指定する』という記事を読んで、「あれ、これってPrivate APIにあたるんじゃない?」と思いフォント名一覧を出力してみたので、そのついでにその一覧をここに掲載しておきます。 (追記2013/10/17その1) iOS7で追加されたフォント、iOS6で追加されたフォントがわかるよう色分けしました。 (追記2013/10/17その2) iOS7の新機能のサンプルコード集、『iOS7 Sampler』 で新フォントを確認できるようにしました。 サンプルコードを提供されてもビルドできない!というデザイナーやディレクターの方は、ぜひお近くの開発者に実機インストールしてもらってみてください。 (追記ここまで) 何に使うのか? self.hogeLabel.font = [UIFont fontWithName:@"Helvet

    iOS 7 で使えるフォント名一覧 - その後のその後
  • iOS 8 の新機能のサンプルコード集『iOS8-Sampler』を公開しました - その後のその後

    WWDCでのアップルの発表によると、iOS 8 では4000以上もの API が追加されたとのことですが、新しいAPIはどう使うのか、実際に何がどこまでできるのか、といった具体的なところが、英語のドキュメントや動画をながめているだけだと正直あまりよくわかりません。やはり実際にコード書いて動かしてみるのが一番わかりやすい、ということで今年もつくりました、 iOS 8 新機能のサンプルコード寄せ集めアプリ『iOS8-Sampler』 ソースコードは GitHub に置いてあります。 https://github.com/shu223/iOS8-Sampler ※使い方は Xcode 6 でビルドするだけ なので、デザイナーさんやディレクターさんもぜひ最寄りのエンジニアにビルドしてもらってください。 中身について 今回はデザイナー okazu 氏の協力により立派なアイコンやスプラッシュ画像が最初

    iOS 8 の新機能のサンプルコード集『iOS8-Sampler』を公開しました - その後のその後
  • ダウンロード可能な Audio Unit 関連のサンプルコード11個 - その後のその後

    Audio Unit は、iOS の Core Audio においてもっとも低レベル(ハードウェアより)に位置するフレームワークです。そのため低レイテンシを要求されるオーディオ処理機能を提供するアプリに向いています。 というのがよく言われる Audio Unit のメリットなのですが、個人的には Audio Unit の「ユニットをつなげて複雑なオーディオ処理を実現する」というしくみ(AUGraph)がまるでギターのエフェクターをつないで音をつくる感じに似ていて、そのあたりも興味深いポイントとなっています。 ただ API は全部 C ベースだし、音を再生するだけでも(AVAudioPlayer 等と比較すると)複雑だったりするので、まずは参考になるサンプルをいろいろと集めてみました。 どの Audio Unit を使用しているか(kAudioUnitSubType_xxxx で判断) どう

    ダウンロード可能な Audio Unit 関連のサンプルコード11個 - その後のその後
  • iOS のオーディオ/サウンド処理について学べる書籍10冊+α - その後のその後

    Core Image や vImage や OpenCV、それらをラップする各種ライブラリの充実のおかげで、画像処理まわりは高度な処理をずいぶん簡単に高速に実装できるようになってきましたが、オーディオ処理(音声処理)まわりはいまだに再生や録音などの基的なところから一歩踏み込もうとすると途端に敷居が高くなるイメージがあります。 たとえば2年ほど前にリリースした『i聖徳太子』は、「左右のイヤフォンから別々の音を再生する」という非常にシンプルなアイデアですが、たったこれだけのことでも AVAudioPlayer やMPMusicPlayerController とかだけでは実現することができず、OpenALやAVAsset等を使用して実現しています。 で、もうちょっとオーディオ処理まわりを勉強してみたいなと思い、まず手元にある書籍で参考になりそうなものを洗い出してみました。 以下、(だいたい)

    iOS のオーディオ/サウンド処理について学べる書籍10冊+α - その後のその後
  • 『上を目指すプログラマーのためのiPhoneアプリ開発テクニック iOS 7編』書評 - その後のその後

    加藤さんをはじめとする豪華執筆陣による名シリーズの最新刊です。 上を目指すプログラマーのためのiPhoneアプリ開発テクニック iOS 7編posted with amazlet at 13.12.20加藤 寛人 西方 夏子 藤川 宏之 鈴木 晃 高丘 知央 インプレスジャパン 売り上げランキング: 1,885 Amazon.co.jpで詳細を見る このシリーズは毎回買っていて、iOS5プログラミングブックに関しては紙の書籍を持っていたにも関わらず、そのあと達人出版会で電子版が販売されているのを発見してさらに買い直した、というぐらいお世話になっています。 今回はありがたいことに @hkato193さんより献いただきましたので、気合い入れてレビュー記事を書きたいと思います。 ちなみに日より発売です。一部大型書店などでは昨日から並んでいるようです。 (隣に並んでいる達人のナントカという

    『上を目指すプログラマーのためのiPhoneアプリ開発テクニック iOS 7編』書評 - その後のその後
  • その後のその後

    iOSDC Japan 2024 という国内最大級 1 のiOSカンファレンスで登壇させていただきました。 初回の2016年〜2024年までで通算8回目の登壇となります。 2016: 海外カンファレンスに登壇する 2017: 飛び道具ではないMetal 2018: Depth in Depth 2019: 今こそwatchOS 2020: 機械学習のブルーオーシャン Core ML 2022: MLOps for Core ML 2023: iOSではじめるフォトグラメトリ 目次 目次 トーク内容 資料と概要 GIS楽しい フィードバックください! 準備メモ 大量のトークをいかにキャッチアップするか 勉強になったトーク おわりに トーク内容 資料と概要 今回は「GIS入門 - 地理情報をiOSで活用する」というタイトルで発表させていただきました。プロポーザルはこちらですが、もしタイトルを修

    その後のその後
  • Objective-Cのクラスの依存関係を「D3.js」でビジュアライズするライブラリ - Over&Out その後

    Objc-dependency-visualizerというOSSツールを使うと、アプリ内で使用している Objective-C クラスの依存関係をビジュアライズしてくれます。 試しに "iOS7 Sampler" でやってみると、こんな感じのを生成してくれました。 実行するのはrubyスクリプトで、依存関係だけが記述されているだけのシンプルなjsファイルが生成されます。 で、閲覧時にはリポジトリに同梱されている index.html 内のJavaScriptから、生成したjsファイルとビジュアライゼーション用 JavaScript ライブラリ「D3.js」を使用してビジュアライズされます。 そんなわけで、引っ張ったり特定の箇所にフォーカスしたり表示をいろいろカスタマイズしたりできます。 (SVProgressHUDにフォーカスした図) 使い方 GitHubからcloneしてきます。 git

    Objective-Cのクラスの依存関係を「D3.js」でビジュアライズするライブラリ - Over&Out その後
  • iOS 7 の新機能のサンプルコード集『iOS7 Sampler』を公開しました。 - その後のその後

    iOS7にどんな新機能があるのかも把握しきれないままベータ期間が終わってしまい、せっかくのメジャーバージョンアップ祭に乗り遅れた感があったので、先週末に開催された『もくもく開発会@鎌倉 #2 by Qiita』にて、 iOS 7 で新たに加えられたAPI の使い方等を勉強しつつ、簡単なサンプルを集めたアプリをつくりました。 ソースコードは GitHub に置いてあります。 https://github.com/shu223/iOS7-Sampler 今のところ21個のサンプルが入っています。何か調べた折に随時追加していきます。 以下サンプルのリストです。 Dynamic Behaviors iOS7 では UIView サブクラスに簡単に物理演算を適用することができるようになりました。 サンプルでは、UIDynamicAnimator, UIGravityBehavior, UIColl

    iOS 7 の新機能のサンプルコード集『iOS7 Sampler』を公開しました。 - その後のその後
  • 1