アプリエンジニア育成に取り組んでいます こんにちは、ピクシブで新規事業部に所属しています、ああうえ(@_kwzr_)と申します。普段のプロダクト開発に加えて、全社的なモバイルアプリ領域の開発体験の向上に取り組んでいます。 最近モバイルアプリの世界ではネイティブなフレームワーク以外の開発手段を採用するものが増えてきましたね。 また、ネイティブアプリ開発の進化によって、iOSではUIKitからSwiftUI、AndroidではAndroid ViewからJetpack Composeが採用されることが増えてきました。 モバイルアプリ領域の中で採用できる技術が増えてきたことで、最近は採用したいエンジニアと、世の中にいるエンジニアの技術的なミスマッチが起こりやすくなってきたと感じます。 ピクシブのアプリでは、ビューアーなどの閲覧体験が重要になってくるものが多かったり、ライブ配信・視聴機能や、ドロー
はじめまして、こんにちは。 iOSエンジニアの とと です。 STORES 決済 アプリ / SDK の開発を担当しています。 少し前になりますが、決済 iOSチームでCI上でのビルド時間削減の取り組みをおこなっておりました。 Bitriseがクレジット制になるということで、ビルド時間を短くしてクレジットの消化(ひいてはコスト)を抑えようというのが目的でした。 そもそも、エンジニアとして日々の業務でビルド待ち時間が短くなるのは嬉しいですよね。 今回は、その時の取り組みの中から、主にコンパイル時間削減のためのSwiftでのコードの書き方を修正したお話をします。 環境 Xocde:13.3.1 Swift:5.6 ローカルで計測時に使用したMacのスペック MacBook Pro (16-inch, 2019) 8コアIntel メモリ64 GB コンパイル時間の計算 XCLogParser
みなさんこんにちは。NewsPickでiOSアプリの開発をしている森崎です。 当記事ではどのアプリも一度は見直しを検討したことがあるであろう、アプリの起動時間の高速化についてお話しします。 他の記事で起動時の処理や高速化への改善策を書いたので、ここでは具体的に行ったこととその結果を数字とともに書きたいと思います。 ⬇️起動時の処理や高速化への改善策を書いた記事です。 こちらを読んでもらうと、当記事の内容がより理解できると思います。(読まなくてももちろんわかります!) qiita.com 今回はSystem Interface Initializationの箇所の見直をしました。(⬇︎この箇所) InstrumentsのApp Launchの計測結果 System Interface Initializationでは何をしているのか まずは結果から 具体的な作業内容 不要な実装の削除 dyn
iOSDC2021で14年前にObjective-Cで書かれた2tch(にたち)のコードがコンパイル,実行できるか?というチャレンジをアンカンファレンスとして発表しました.Zoomで開催し,最大100人が参加する事態となり,色々なことが話題になりました. 1.Subversionって知ってますか. 2._synthesizeってなんだよ. 3.あぁ・・・id型で全部よかったんだ・・・・・. 4.Trueじゃなくて,YESね 5.releaseとautorelease 6.ARC?なにそれ,型あんの? 7.Perlって知ってる? 全部,答えられたら,あなたも古参です.また,高校時代に2tchを使ってくれていた@freddiさん が登場し,感涙するなど・・・・.まさにAAなしでは語りきれない盛り上がりになりました(ってか高校時代・・・・・?14年前だと当時高校生でも今30歳だもんね・・・・・)
AppleがiPhone/iPadのApp StoreでApple Silicon Macで動作するアプリの互換性情報を表示開始。ます。詳細は以下から。 Appleが日本時間2020年11月11日午前3時より開催するスペシャルイベント「One more thing.」で発表すると予想されているApple Silicon搭載のMacでは、iOS/iPadOSアプリが“as-is(その状態のまま)”で動作することが発表されていますが、macOS 11 Big Surのリリースを前に、iPhone/iPadのApp Storeで対応アプリの表示が開始されています。 ただし、iPhone/iPadとMacのシステムはUIの違いはもちろん、加速度センサーやタッチ操作、マウスやトラックパッドなどハードウェアの違いもあるため、Apple Silicon Macで動作するiOS/iPadOSアプリは開発者
おおー AirPods Proの加速度センサーを取得してUnityのCubeに入れて動かすやつ出来た!!! iOS14から動きます pic.twitter.com/Nb113NizVr — AIセバスちゃん (@SebasAi) 2020年9月22日 AirPods Proの加速度センサーでアバター動かすの出来た!! なかなか滑らかに動いてる。#VRM #Unity pic.twitter.com/dCUqQC3as8 — AIセバスちゃん (@SebasAi) 2020年9月23日 これを叩けばいいって。よく分からないな〜 https://developer.apple.com/documentation/coremotion/cmheadphonemotionmanager Unityのサンプルプロジェクト サンプルビルド XCodeで許可 結果 置き換え ネイティブ 最後に Unit
はじめに昨年(2019/06/27)、出版された「iOSアプリ開発 自動テストの教科書」が出版されて約1年たちました。 iOSアプリ開発自動テストの教科書〜XCTestによる単体テスト・UIテストから、CI/CD、デバッグ技術までwww.amazon.co.jp どれぐらい売れているかはちょっと分からないのですが、購入していただいた皆さんありがとうございます。 皆さんの役に立つことが出来たなら幸いです。 この本ではXcode10.2を想定環境として執筆をしています(テスト全書はXcode11.0になります)。 この1年間で、Xcodeは11.5までバージョンはあがり、そしてWWDC 2020ではXcode12の話がでています。 そこで、この1年でのXcodeのTesting周りの変化についてかんたんにふりかえりたいと思います。 リリースされたXcodeのバージョンXcode10.2以降にリ
本日からはじまったWWDC 2020、まだ基調講演しか見てないのですが(SOTUも後で見ます)、ドキュメントは公開されたので、明日から始まるセッションでどのあたりをチェックするか当たりをつけるべく、例年通りAPIの差分を見て気になった新APIをピックアップしていきます。 まずは新フレームワークから。今年の新規追加フレームワーク1は21個。 ML Compute ニューラルネットワークの学習とバリデーションを行うためのフレームワーク、とのこと。 Accelerate training and validation of neural networks using the CPU and GPUs. macOS用かな?と思いきやiOSでも利用可。 ML Compute utilizes the high performance BNNS primitives made available by
本書はCore ML Toolsの実践入門書です。 KerasやTensorFlowを用いて構築した機械学習/ディープラーニングのモデルをiOSで利用するために必要な変換ツールである「Core ML Tools」(Pythonパッケージ名としては`coremltools`)の利用方法を**さまざまなモデルをつくりながら**学んでいきます。 最初はわずか2行のコードで変換することからはじめてCore ML Toolsに入門しつつ、もっと高度な変換方法や、モデルのサイズを縮小する方法、パイプラインを構築する歩法、オンデバイスで学習できるようにする方法等も解説していきます。 また巻末には「逆引きリファレンス」も収録しています。開発の現場で「どう書くんだっけ?」となったときに大いに役立つことでしょう。 A5版、本文164ページ(製本版は150ページ)。サンプルコードはGitHubよりダウンロード可
iOS×機械学習といえばCore ML。既製のCore MLモデルを扱うのは非常に簡単なのですが、 TensorFlowやKeras等の機械学習ツールで作成した独自モデルをCore MLモデルに変換したい モデルサイズを小さくしたい 複数サイズの入力をサポートしたい オンデバイスで更新できるようにしたい 等々、つまり 自分でCore MLモデルをつくりたい・カスタマイズしたい場合にはCore ML Tools(coremltools)を使いこなすことが不可欠 です。 が、こんなに重要なツールなのに意外にも情報が少なく、日本語情報どころか英語の公式ドキュメントすら全然網羅的ではありません。 というわけで自分で勉強しつつ書いた本がこちらです1。 Core ML Toolsの利用方法を実践形式でさまざまなモデルをつくりながら学んでいきます。最初はわずか2行のコードで変換することからはじめてCor
WWDCのメモリのセッションを見ていたら思わぬTipsについて言及されていた。 WWDC 2018 iOS Memory Deep Dive の20分57秒あたり https://developer.apple.com/videos/play/wwdc2018/416 UIGraphicsBeginImageContextWithOptions を使うのはやめて UIGraphicsImageRenderer を使えという話題。 UIGraphicsImageRenderer は最適なグラフィックフォーマットを自動で選択してくれる。 マスク画像の様な単色の画像を描画する場合に UIGraphicsBeginImageContextWithOptions では1ピクセル4バイトのsRGBに対して UIGraphicsImageRenderer は1ピクセル1バイトで75%のメモリの節約になる
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く