タグ

ブックマーク / shu223.hatenablog.com (12)

  • API Diffsから見る iOS 11 の新機能 #WWDC17 - その後のその後

    今年はWWDC会場よりお送りしております。特に何も期待しないまま参加したのですが、開発者的には非常にワクワクする発表がたくさんありました。 基調講演の内容からではなく、ベータ公開されたiOS Dev CenterのAPIリファレンスを見て、個人的に/開発者目線から気になった新APIを挙げていきます。 Core ML iOS 10からMetal Performance Shaders(以下MPS)に追加されたCNN関連機能、足りないものが色々とあり、ここらへんは拡充されたら嬉しいなとは思っていましたが、新フレームワークとして登場しました。 おいおい、さらに増えたら MPSCNN / BNNS / Core ML とどう使い分けるんだ、と思いましたが、ドキュメントの図で棲み分けがわかりました。 Keras や Caffe で学習したモデルを BNNS や MPSCNN で使えるようにするのが

    API Diffsから見る iOS 11 の新機能 #WWDC17 - その後のその後
  • TensorFlowをiOSで動かしてみる - その後のその後

    TensorFlow に iOS サポートが追加された というニュースを見かけたので、ビルドして、iOSで動作させてみました。 (たまたま目の前にあった扇風機もバッチリ認識してくれました) 記事では最終的にうまくいった手順を書いています。この手順をなぞってみるにあたってTensorFlowや機械学習・ディープラーニングについての専門知識は不要ですのでぜひお試しください! ビルド手順 (2017.4.15追記)v1.1.0 RC2 のビルド 現時点での最新Release(候補)である v1.1.0 RC2 も、tensorflow/contrib/makefile/build_all_ios.sh を実行するだけでビルドできました。 (2016.8.22追記)v0.10.0 RC0 のビルド 現時点での最新Releaseである v0.10.0 RC0 は、上記手順でビルドしようとすると c

    TensorFlowをiOSで動かしてみる - その後のその後
  • ディープラーニングの有名ライブラリ5種を最短距離で試す半日コース(TensorFlow, Chainer, Caffe, DeepDream, 画風変換) - その後のその後

    「いつか勉強しよう」と人工知能機械学習/ディープラーニング(Deep Learning)といったトピックの記事の見つけてはアーカイブしてきたものの、結局2015年は何一つやらずに終わってしまったので、とにかく一歩でも足を踏み出すべく、質的な理解等はさておき、とにかく試してみるということをやってみました。 試したのは、TensorFlow、Chainer、Caffe といった機械学習およびディープラーニングの代表的なライブラリ/フレームワーク3種と、2015年に話題になったディープラーニングを利用したアプリケーション2種(DeepDream、chainer-gogh)。 (DeepDreamで試した結果画像) タイトルに半日と書きましたが、たとえばTensorFlowは環境構築だけなら10分もあれば終わるでしょうし、Chainerなんてコマンド一発なので5秒くらいです。Caffeは僕はハ

    ディープラーニングの有名ライブラリ5種を最短距離で試す半日コース(TensorFlow, Chainer, Caffe, DeepDream, 画風変換) - その後のその後
  • 海外のカンファレンスに登壇する - 応募編 #potatotips - Over&Out その後

    日、potatotips #28(iOS/Androidの開発Tips共有会)にて標題の発表をさせていただきました。 iOSのカンファレンスに自分で応募して、採択されるまでの話です。 以下、スライド内容の抜粋。 はじめに iOSのカンファレンス、UIKonf 2016(ベルリン), iOSCon 2016(ロンドン) に登壇させていただくことになりました! どちらも国内外からスピーカーが来る国際カンファレンス チケット代 UIKonf:€450+VAT19%(約66,000円) iOSCon:£650(約101,500円) どちらも登壇者は計18人 ・・・と言っても 招待されたわけではない 自分で応募して、投票・審査の上で採択された アジェンダ 1. なぜ応募したか 2. CFPをどう見つけたか 3. Proposalをどう書いたか 4. 審査過程はどうだったか 1. なぜ応募したか?

    海外のカンファレンスに登壇する - 応募編 #potatotips - Over&Out その後
  • watchOS 2 の新機能のサンプルコード集『watchOS-2-Sampler』を公開しました - その後のその後

    (2015年10月追記)watchOS 2 正式リリースに伴い、各サンプルのスクショ付きで新たに紹介記事を公開しました: http://d.hatena.ne.jp/shu223/20150923/1442960805 以下はベータリリース時の古い記事になります。 先週の WWDC15 にて watchOS 2 が発表され、ついに待望のネイティブ動作する Apple Watch アプリがつくれるようになりました。それに伴い、WatchKit には多くの機能が追加され、ClockKit や WatchConnectivity 等の新しいフレームワークも登場しました。さらにいえば、従来フレームワークもウォッチ側で動作するようになったことから、これらもある意味新APIであるといえます。*1 そんなわけで、数が少なすぎてびっくりした 初代 watchOS の発表時とは打って変わって、今回は遥かに多

    watchOS 2 の新機能のサンプルコード集『watchOS-2-Sampler』を公開しました - その後のその後
  • Xcode 6 時代のマルチデバイス対応 〜Size Classとベクター画像〜 - その後のその後

    とあるお仕事で、iPad をサポート(= Universal 化)してほしいという要望があり、せっかくなので iPhone 6 / 6 Plus (4.7 / 5.5 inch スクリーン)もサポートしようってことで、新しい Xcode 6 の新しい仕組みである Size Class を使って複数画面対応を行ないました。あと、同じく Xcode 6 から Asset Catalog でベクター形式がサポートされるようになったので、こちらもトライしてみました。 で、そのときに学んだ諸々の断片的なメモです。勘違いもあるかもしれないのでその際は優しくご指摘いただけますと幸いです。 ※ちなみに Size Class やベクター形式画像の使用は iOS 8 以上縛りではありません。単に Xcode 6 の新機能というだけなので。 Size Class の前提知識をつける 「Size Classsとは

    Xcode 6 時代のマルチデバイス対応 〜Size Classとベクター画像〜 - その後のその後
  • NDAについて、WWDCでAppleの中の人に聞いてみました - その後のその後

    今年のWWDCでは例年に比べ Apple自身が公開してくれている情報 が多く、実質的にNDAが緩くなったといえます。 Appleが公開しているサンプルコードについてWWDCのラボで聞いてみた 際に、「今教えてくれたこと、ブログとかに書いていいんでしょうか?」と質問すると、次のような回答をくれました。 1. iOS Dev Center にログインする 2. Member Center に行く 3. [Your Account] > [Legal Agreements] > [iOS Developer Program License Agreement] を開く 4. "WWDC" で検索する (-> 10.1 Information Deemed Apple Confidential が引っかかる) 5. そこを読んでお前の弁護士と相談しろ なるほど、すごく明快な回答です。WWDCに限ら

    NDAについて、WWDCでAppleの中の人に聞いてみました - その後のその後
  • 家電を自由に操作するiOSアプリがつくれる『IRKit』 - その後のその後

    カヤック時代の恩師 maaash 氏 *1 が、IRKitという新デバイスを個人で開発(!)して、日よりAmazonで販売を開始しました。 IRKitposted with amazlet at 14.01.14maaash.jp Amazon.co.jpで詳細を見る このIRKitをつかうと、家電を操作するiOSアプリを好きなようにつくることができます。つまり、自分好みのリモコンアプリをつくれます。 対応している家電は・・・という制約はとくになくて、普通のリモコン(赤外線リモコン)で操作できるものなら何でもOKです。 しくみ IRKit(デバイス)が赤外線信号を送る機能を持っていて、IRKit SDK(を組み込んだアプリ)から「どういう信号を送るか」を制御する、という感じです。ざっくり。 学習リモコンやPlutoやiRemoconとどう違うの? 学習リモコンは、もともとあるリモコンの赤

    家電を自由に操作するiOSアプリがつくれる『IRKit』 - その後のその後
  • 人生初の講演をしました - その後のその後

    日11/11吉日、TechCrunch Tokyo ハッカソンにて、"TechTalk" という枠で人生初の講演をさせていただきました。 さて、このハッカソンに、ハッカー界の著名人が2人も登場して頂けることとなったのでお知らせしたい。(中略)もう1人は、同じく500 Startupsに参加するグロース・プラットフォーム「AppSocially」の開発者、堤修一氏だ。 堤氏のことは、iOS開発者向けに多くの技術情報を出すブログや、著書「iOSアプリ開発達人のレシピ100―開発現場で実証された実用コード集」でご存じの方も多いかもしれない。これまでにフルスクラッチで開発したiOSアプリは30以上といい、その中には150万ユーザー以上を獲得した対戦RPG「バウンドモンスターズ」もあるという筋金入りのiOS開発者だ。NTTデータ、キヤノンで、それぞれ音声認識技術の研究開発、画像処理機能の設計に携

    人生初の講演をしました - その後のその後
  • 『iOSアプリ開発 達人のレシピ100』という本を書きました - その後のその後

    2013年に入ってから4ヶ月間、無職のありあまる時間をつぎ込み執筆してきたが、ついに日発売となりました。 バルセロナで観光もせず執筆し、その後は鎌倉のコワーキングスペースに毛布を持ち込み半泊まり込みで執筆し、企画当初は230ページの予定だったところを大幅超過して370ページも書いてしまったほどに気合いを込めました。 タイトルには『達人のレシピ』とありますが、もちろん著者が達人というわけではなく、掲載しているレシピが達人レベルの難しさ、というわけでもなく、私が提案した『iOSアプリ開発に役立つTips』という地味なタイトルに対していろいろな大人の方々の意向が加わってこうなった、というものです(カッコイイので大変満足しております)。 の内容 ざっくり言うと、iOSアプリ開発まわりのTips集です。 概要紹介代わりに、『はじめに』に書いた内容を転載します。 iOS SDK がカバーしている

  • 自然言語のテキストを属性で区分する - その後のその後

    NSLinguisticTaggerを用いると、自然言語のテキストを品詞(名詞、動詞、代名詞)や「個人名」「地名」といった属性で区分(トークンに分解)することができます。日語の形態素解析も可能です。 使い方は非常にシンプルで、基的な手順は 1. スキームを引数に渡してNSLinguisticTaggerオブジェクトを生成 2. 処理対象テキストをセット 3. トークン分解開始 の3ステップです。 // スキーム NSArray *schemes = @[NSLinguisticTagSchemeLexicalClass]; // NSLinguisticTaggerオブジェクトを生成 NSLinguisticTagger *tagger = [[NSLinguisticTagger alloc] initWithTagSchemes:schemes options:0]; // 処理対

    自然言語のテキストを属性で区分する - その後のその後
  • 34歳無職のiOSプログラマが1ヶ月間スペインに滞在してきたまとめ - その後のその後

    約1ヶ月間(23泊26日)、スペインはバルセロナに滞在してきました。刺激的でかっこいい紀行文もしくは滞在記みたいなのを書けるのであれば書きたいところですが、それだと永遠に書かないまま終わりそうなので、箇条書きベースでまとめたいと思います。 目的とか経緯とか ざっくりいうと、「海外就職したいけど、とっかかりもないので、まずはちょっとだけ海外に住んでみたりしてみよう」というのが目的です。 (経緯) 「海外で働きたい」という思いから退職したものの、コネもビザもない。 面白法人カヤックを退職しました。 偶然、iOS技術を執筆する話をいただく 若輩者ではありますが、iOSの技術書を書かせていただくことになりました。 寒くなさそうで、かつ前から行ってみたかったスペインをチョイス 執筆、海外就職、その他もろもろについての近況報告 スペインでやったこと ほぼアパートにこもってPCに向かってました。バルセ

    34歳無職のiOSプログラマが1ヶ月間スペインに滞在してきたまとめ - その後のその後
  • 1