タグ

関連タグで絞り込む (296)

タグの絞り込みを解除

iosに関するyoshiwebのブックマーク (247)

  • ドラッグ&ドロップで機械学習のモデルがつくれる「Create ML」の使い方 - その後のその後

    iOS 12の気になる新機能のAPIを見ていくシリーズ。昨日はARKit 2の永続化・共有機能や3D物体検出機能について書きました。 記事ではCreate MLについて。1 Create ML Create MLは、Core MLのモデルを作成するためのmacOSの新フレームワークです。 昨日のState of the Unionにてデモがありましたが、なんと、学習用データが入ったフォルダをドラッグ&ドロップするだけで作成できます。 ちなみに要macOS 10.14 Mojaveです。 MLImageClassifierBuilder まだMojaveにアップデートしていないので試せていない2のですが、丁寧なチュートリアル記事が出ていて、作業手順を図付きで確認できます。 PlaygroundsでMLImageClassifierBuildeを初期化してshowInLiveViewを呼ぶコ

    ドラッグ&ドロップで機械学習のモデルがつくれる「Create ML」の使い方 - その後のその後
  • Amazon Alexa用のクライアントをiOSで作ってみた | DevelopersIO

    1 はじめに Amazon Alexaは、AmazonによるクラウドベースのAI人工知能)音声アシスタントです。Alexaに対応したデバイスを使用すると、デバイスに話しかけると、同サービスからその処理結果を音声で受け取り再生されます。 現在の提供されているデバイスには、下記のようなものがあります。 Amazon Echo Amazon Echo Dot Amazon Tap Amazon Fire TV ※ 上記のハードウエアは、全て無線が必要ですが、現時点(2017.03.14現在)で、技適マークを取得したものは無いようですので、これらのデバイスについては、残念ながら、まだ、日国内で使用できません。 また、アプリも幾つか公開されています。 Amazon Alexa Amazon 公式アプリ(日のストアでは表示されません) Lexi $180 echosim.io (Alexa Sk

    Amazon Alexa用のクライアントをiOSで作ってみた | DevelopersIO
  • Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発 - Qiita

    はじめに 一年前にTensorflowを使ってももクロ顔識別webアプリを開発しましたが、今回はWWDC2017で発表された iOS11の CoreML + Vision Framework を使ってももクロメンバーの顔画像をリアルタイムで識別するiOSアプリを作ってみました。 なお、記事はiOSDC2017での発表の元となった記事です。 発表資料はこちら CoreML / Vision Frameworkとは? CoreMLはiOS11で導入された機械学習フレームワークです。Kerasなどメジャーな機械学習ライブラリを使ってデスクトップやクラウド上で訓練し、その学習結果をCoreML用に変換しiOSアプリに組み込むことで、デバイス単体で予測や識別処理をさせることができます。 Vision Frameworkは顔検出や矩形検出など高度な画像認識処理を行うAPIを提供してくれるフレームワー

    Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発 - Qiita
  • iOSのMPSCNNに渡すモデルパラメータのフォーマット / TensorFlowからの書き出し - Qiita

    iOS 11からCore MLが追加されましたが、もちろんiOS 10では利用することができません。代わりに、Metal Performance Shaders(MPS)フレームワークを利用してiOSデバイス上でCNN(Convolutional Neural Network)の推論を行うことが可能です。 iOSの機械学習フレームワークの比較 - Core ML / Metal Performance Shaders (MPSCNN) / BNNS - Qiita このMPSのCNN関連APIはiOS 10で追加されました。フレームワーク名に"Metal"とあるとおり、iOSデバイスのGPUで畳み込みニューラルネットワークを用いた推論の計算を行える、という代物です。 『先日書いた記事』では、MPSCNNを用いて手書き文字認識を行うCNNを実装するコードを示しました。 当該サンプル(Appl

    iOSのMPSCNNに渡すモデルパラメータのフォーマット / TensorFlowからの書き出し - Qiita
  • TensorFlowをiOSプロジェクトに導入する手順をやさしく解説する

    TensorFlowは、Googleが公開しているモバイルや、サーバなどデバイスを問わずどんな環境でもディープラーニングを動作させることができるライブラリです。 iOSアプリで識別することも、バージョン0.9.0からサポートされました。 記事では、TensorFlowやiPhoneアプリ開発にそれほど馴染みのない方でも簡単にXcodeプロジェクトからTensorFlowのモデルを実行できるようになるまでを解説します。 TensorFlowをiOSで動作させるために必要なもの TensorFlowをiOSプロジェクトで動作するには、以下のライブラリやソフトウェアが必要になります。 Xcode7.3以上 XcodeのCommand Line Tools automake, libtool Xcodeは、iTunesストアからダウンロードしてください。 また、XcodeのCommand Lin

    TensorFlowをiOSプロジェクトに導入する手順をやさしく解説する
  • Twitter社のfabricは、TestFlightの代わりになるのか? | クスールブログ

    こんにちは、尾崎です。先月(1/26)に発表された「(旧)TestFlight終了のお知らせ」により、iOSアプリ開発の現場が、ざわついてました(たぶん)。 TestFlightとは? iOSなどのスマホアプリ開発では、リリース前に 様々な端末(iPhone5s, 6, 6+, iPadなど)で動作するかチェックを行います。 ※端末だけでなく、OSごとのチェックもします。 この確認に便利なサービスが、TestFlightでした。 アプリを作ったら、このサービスを使って、 登録ユーザーへ配信することで、各ユーザーが自身の端末にテストアプリをインストールできるようになります。 TestFlightは、Apple社が買収 TestFlightを開発したBurstly社をAppleが買収したは、1年前。 そのあと、Appleが同名でサービスを開始しました。 iOSでは、現在iOS8が主流となってい

  • こじ研(openFrameworks)

    openFrameworks を利用して,iPhone / iPad / iPod touch のアプリを開発します.従来は,Objective-C から iOS 独自の API を利用する方法を習得する必要がありましたが,openFrameworks を利用することで,グラフィクス処理・音処理などを,一般的なデスクトップ(Mac OS や Windows など)のアプリケーションと同じ方法で,C++ を使って iOS アプリを開発することができます. iOS 用の openFrameworks を利用するには,Mac + Xcode が必要となります.ここでは,既に,Mac 上での開発環境が準備できているものとして,iOS アプリ開発を解説していきます.必要に応じて,「openFrameworks の ios setup guide」を参照してください.利用する openFramewor

  • 【無料】Mac用のIDE “Visual Studio for Mac” で iOS/Android アプリを作ってみた [Xamarin][新規作成から実行まで] – ちょ窓帳

    先週 (2016/11/16) の「Microsoft Connect();」イベントでアナウンスのあった通り、 Mac 用の Visual Studio がついに(Preview版で)リリースされましたね! Visual Studio for Mac!! インストールはこちらから(無料): visualstudio.com/vs/visual-studio-mac/ それを実際に触ってみましょう! (このツールの目玉はバックエンド(サーバサイド)のプロジェクトまで一緒に作ってくれることだけど、 取り敢えず入門記事として、最初はクライアントだけのものを作ります!) VS for Mac でスマホアプリのテンプレートを「新規作成」 まずVisual Studio for Macを開きます。 VS for Mac が起動し、スタートページが開きます。 「New Project(プロジェクトの新

    【無料】Mac用のIDE “Visual Studio for Mac” で iOS/Android アプリを作ってみた [Xamarin][新規作成から実行まで] – ちょ窓帳
  • App Storeへの登録に関するチュートリアル (TP40011375 0.0.0)

    AppStoreへの 登録に関する チュートリアル 目次 初めてのApp Store登録 4 はじめに 5 プログラムへの参加 5 デバイスのプロビジョニング 5 iTunes Connectでアプリケーションレコードを作成 5 アプリケーションの登録 6 問題の解決、次のステップ 6 必要事項 6 関連項目 7 iOS Developer Programへの参加 8 ウェブツールを使ってアカウントを管理する手順 8 参加手続き:Appleからの電子メール 9 iOS Developer Programの各種ツールの入手 9 まとめ 11 開発用デバイスのプロビジョニング 12 開発用証明書の要求 12 デバイスのプロビジョニング 14 アプリケーションへのコード署名 15 デバイス上でアプリケーションを起動 16 まとめ 17 さまざまなデバイスやiOSの版におけるアプリケーションのテ

  • iOSチーム管理ガイド

    iOSチーム管理ガイド 目次 iOSアプリケーション開発におけるチーム管理について 5 At a Glance 6 チーム管理者はメンバーセンターで、メンバーを管理し役割を割り当てる 6 開発用デバイスはiOSプロビジョニングポータルで登録する必要がある 6 アプリケーションの開発には開発用証明書が必要である 6 開発用デバイスにアプリケーションをインストールするためには、開発用プロビジョニングプロ ファイルが必要である 6 アプリケーションを配布するためには、配布用証明書と配布用プロビジョニングプロファイルが 必要である 7 アプリケーションをApp Storeに公開し、または独自の方法で配布する 7 How to Use This Document 7 Prerequisites 8 関連項目 8 チームの管理 9 開発チーム各員の役割と責任 9 チーム管理者およびチームメンバーを加

  • iOS プロビジョニングプロファイルの作成

    iOS の開発におけるプロビジョニングプロファイルの生成は、最初はとても分かりにくいものです。そこで今回、自分が調べた情報をまとめました。Web で検索すると手順を書いてあるものが多く見つかるのですが、個人的には手順はもとより、それぞれのファイルやタスクの意味が知りたいと思ったので、そのあたりを中心にまとめました。 なお、稿は2013年10月5日現在の情報です。また、Xcode 5 を利用しています。稿の内容は 2014年12月3日、Xcode 6 でもそのままお読みいただけます。iOS Developer Center などでの操作や画面も頻繁に変わるようなので、古くなってしまったらすみません。また、もし記載事項に誤解や間違いなどございましたらご指摘ください。 また、稿はほぼ次の資料を参考に実践してみた内容をまとめたものです。下記の資料だけでも十分なぐらいの素晴らしい資料ですので、

    iOS プロビジョニングプロファイルの作成
    yoshiweb
    yoshiweb 2016/09/16
  • iOS アプリの Ad Hoc IPA を作成してデバイスにインストールする手順

    稿は、2014年12月4日現在の、iOS アプリの Ad Hoc な IPA を作成してデイバスにインストールするまでの手順のまとめです。 稿はとても基的な手順の解説です。知っている人にとっては当たり前のことだと思うのですが、今回1年ぶりぐらいに iOS アプリを手がけることもあって、その基的な手順を忘れてしまい(アーカイブが必要なことも忘れていました)、大変困りました。ネットで検索するものの、最近 Xcode 6 がリリースされたばかりだからか差分の情報ばかり見つかって基的な手順がありません。見つけても Xcode 4 の頃とかの古い情報ばかりでしたので、まとめました。 稿は未来の自分に向けてのメモ程度のものです。稿を今後参考にされる場合には、適宜キーワードを検索したりして、時々の最新情報を合わせてご一覧ください。 事前準備 プロビジョニングプロファイルを作成しておく(ダウ

    iOS アプリの Ad Hoc IPA を作成してデバイスにインストールする手順
  • iOS10、現時点で判明しているバグ一覧! - iPhone Mania

    公開されたばかりのiOS10について、現時点で判明しているバグ情報をご紹介します。中には、使い勝手に影響を及ぼすようなものもあるので、ご注意ください。 多くの新機能を搭載したiOS10、早速不具合も判明 数多くの新機能を盛り込んだiOS10は、日時間の14日午前2時に公開されましたが、公開直後にはiPhoneが「文鎮化」する不具合が発生し、Appleが急きょ対応するといったハプニングもありました。 現時点で判明しているiOS10のバグについて、iPhoneHacksが紹介しています。なお、すべてのユーザーが影響を受けるわけではない不具合もあります。 一般的な不具合 カメラアプリがビデオモードだと、コントロールセンターで明るさの調整バーが最大にならない iPhone6s Plusでは通知パネルの表示が乱れる iPhone6のランドスケープモードでクイックリプライ(ロック画面からメッセージに

    iOS10、現時点で判明しているバグ一覧! - iPhone Mania
  • 新しいTestFlightを使ってみました - Toyship.org

    TestFlightがAppleに買収されて iTunes Connectから使えるようになりました。 さっそく使ってみましたが、いままでのTestFlightにくらべて予想以上に楽になっています。 すべてのDeveloperがいますぐ使い始めるべきレベルなので、ぜひつかってみることをおすすめします。 いままでのTestFlightとの違い 以前からTestFlightでのアプリの配布はできましたが、買収される前とされたあとでかわった内容を簡単にまとめるとこんな感じです。 テスターがテストに参加するのが楽。 開発者がテスターを登録するのが楽。 App Storeへの審査用Submitと同時に行うことができるのが楽。 今まではTestFlightにテスターを登録するのに、それぞれのiPhoneのUDIDを集めて、それを登録する必要があり、開発者、テスターともにかなりめんどくさかったんですよね

    新しいTestFlightを使ってみました - Toyship.org
  • 【詳説】初めてのiPhoneアプリ開発「簡単webViewアプリ」その① - Qiita

    対象者 初めてiPhoneアプリをつくる人 ゴール iPhoneアプリの作り方をざっくりと理解する。 ※各機能の細かい説明は含んでいません。 今回はアプリを一から作り上げることが目的です。 今回つくるアプリの概要 ・webViewでgoogleのページを表示(その①) ・ページの戻る/進む機能の実装(その②) ・Facebook/Twitterでの投稿機能の実装(その③) (表示中ページのURL/タイトルをデフォルトでセット) プロジェクトをつくる Xcodeを開く。 「Create a new Xcode project」を選択 「Single View Application」を選択して、「Next」へ 今回はPriductNameを「simpleWebView」にします。 Languageは「Swift」、Deviceは「iPhone」を選択します。 これでプロジェクトができました。

    【詳説】初めてのiPhoneアプリ開発「簡単webViewアプリ」その① - Qiita
  • TensorFlowの学習済みモデルを拾ってきてiOSで利用する - Qiita

    iOS 10でニューラルネットワークAPIのBNNS (Basic neural network subroutines) がAccelerateフレームワークに追加されたり、TensorFlowのiOSサポートが追加されたり、Prismaがオフライン対応したりと、なんとなくあらかじめ学習させておいたモデルを使って計算するぐらいのことはiOSデバイス側でやらせてもいいんじゃないか、という空気感も出てきたような気がしてます。1 ・・・いや、そんな大層な理由ではなくて、機械学習/ディープラーニングについて無知な自分が、学習用に大量のデータを集めて、Pythonスクリプトを書いて自前モデルを作成するのは一段ハードルが高いように思えてしまいます。 というわけで、先日書いた『TensorFlowにiOSサポートが追加されたそうなので試してみた』の次のステップとして、GitHubとかに落ちている学習済

    TensorFlowの学習済みモデルを拾ってきてiOSで利用する - Qiita
  • [WebAudio API] iOS9で音が歪む、遅い、低い、割れる等の回避方法 - Qiita

    WebAudio API で音が歪む 歪んだり歪まなかったりするしよくわかんねー! ってなってましたが、なんか回避できたので、書いておきます。 再現方法 iOS 9.2.1 iPhone6 Plus イヤホンを挿してない状態で SafariでWebAudioの再生してるページを開いて、Safariを再起動します。 ちなみに、Safariで音を再生するには、touchend等のユーザアクションで音を再生しないといけません。(一回再生すれば、そのAudioContextでは再生できるようになる) あと、なぜか、iOS9からtouchstartがユーザアクションとして判定されなくなりました。 音の再生サンプル 回避の方法 一回音を再生してから、サンプルレートが44100じゃない時に、AudioContextを再度生成することで回避できます。 サンプル http://goo.gl/jWZDwD d

    [WebAudio API] iOS9で音が歪む、遅い、低い、割れる等の回避方法 - Qiita
  • macOS 10.12 SierraおよびiOS 10ではGoogleが開発した画像フォーマット「WebP」がサポートされるもよう。

    macOS 10.12 SierraおよびiOS 10ではGoogleが開発した画像フォーマット「WebP」がサポートされるようです。詳細は以下から。 WebPフォーマットはGoogleが開発している新しい画像フォーマットで、PNGと比較して26%、JPEGと比較して25~34%もファイルサイズを小さくすることができますが、現在AppleがBetaユーザー向けに公開しているmacOS SierraおよびiOS 10, Safari v10でもこの画像フォーマットがサポートされているそうです。 Roney Thomas So i was working on an android app that uses WebP as drawable and the finder started correctly showing WebP image. After updating to the p

    macOS 10.12 SierraおよびiOS 10ではGoogleが開発した画像フォーマット「WebP」がサポートされるもよう。
    yoshiweb
    yoshiweb 2016/07/14
    ChromeでAPNGは対応しないのかな?
  • 2017年1月以降もHTTPS非対応サイトへのiPhoneからのアクセスは激減しない

    現在Appleが開催している開発者向けイベントWWDC 2016に関連して、App Storeで配布されるiOSアプリのセキュリティ設定に関する問題が話題になっています。 [参考] もう待ったなし?2017年1月より全てのHTTPサイトはiPhoneからのアクセスが激減する可能性。 [参考] Webに接続するiOSアプリは2017年1月からHTTPSの使用が絶対条件になる、デベロッパーはご注意を | TechCrunch Japan App Transport Security(ATS)というセキュリティ機能を2016年12月までに有効にせよ、というAppleの方針が発表されたことに端を発するもの。 ATSが有効にされたiOSアプリでは、Webサービスとの通信は、HTTPでなくHTTPSの使用を強いられることになります。 HTTPSは暗号化されているため安全なのはいいのですが、実際には暗号

    2017年1月以降もHTTPS非対応サイトへのiPhoneからのアクセスは激減しない
  • マーケティングリソースとアイデンティティに関するガイドライン - App Store - Apple Developer

    推奨バッジ アプリを宣伝するマーケティングコミュニケーションでは、黒い推奨バッジを使用してください。黒いバッジの周囲にあるグレイのボーダーはバッジのアートワークの一部であり、変更は許可されていません。同じ場所で他のアプリプラットフォームのバッジを併用する場合は、黒い推奨バッジを使用してください。その際は、App Storeのバッジを最初に配置してください。 代替バッジ 多様なデザインに柔軟に対応できるよう、白い代替バッジも用意されています。黒い推奨バッジではレイアウトの見た目が重くなってしまう場合に使用することができます。白い代替バッジは、同じ場所でバッジを1つだけ使用し、かつレイアウト内で使用される他の色を補う場合に適しています。マーケティングコミュニケーションで他のアプリプラットフォームのバッジも表示する場合は、黒い推奨バッジを使用し、白い代替バッジは使用しないようにしてください。 ロ

    マーケティングリソースとアイデンティティに関するガイドライン - App Store - Apple Developer