また、Primate LabsのJohn Pooleさんによると、Geekbench ML for iOSでは、これまでTensorFlow Liteを利用してきたものの、iOSアプリではGoogleのTensorFlow LiteよりAppleのCore MLが採用されることが多いことから、iOSアプリのAPIをCore MLに切り替えており、 Geekbench ML v0.6はGeekbench ML v0.5の画像セグメンテーションや姿勢推定、物体検出、顔検出、自然言語処理(NLP)などの機械学習専用ワークロードに加え、深度推定とスタイル変換、高解像度化ワークロードを追加し、実際に機械学習モデルが使用されるケースに近づけ、 正式リリースとなる「Geekbench ML v1.0」は2024年にリリースを予定しているそうなので、使用しているデバイスの機械学習スコアが気になる方は試して
macOS 14 SonomaやiOS 17では機械学習を利用し写真から犬や猫、花、本のタイトル、建築物の詳細を調べる「Visual Look Up」がビデオ内でも可能になっています。詳細は以下から。 Appleは2021年06月に開催したWWDC21の中で、MacやiPhoneの機械学習(Neural Engine)技術を利用し、Googleレンズのように写真内に写っている犬や猫の品種、花の名前、アートや本のタイトル、有名な建築物の詳細を表示できる「画像を調べる (Visual Look Up)」機能を発表し、macOS 12 MontereyやiOS 15に導入、 2022年09~10月にリリースされた「macOS 13 Ventura」や「iOS 16/iPadOS 16」では、このVisual Look Upが日本でも利用可能になっていまが、 新たにリリースされた「macOS 14
macOS 12 Montereyでは一部の言語環境で機械学習を利用し写真から犬や猫、花の種類やアート、本、建築物の詳細を表示する「Visual Look Up」が可能になっています。詳細は以下から。 Appleは2021年06月にオンラインで作成したWWDC21の基調講演の中で、写真内のテキストを抽出しコピー&ペーストできるようにしてくれる「テキスト認識表示 (Live Text)」機能を発表し、次いで同じくiOSやmacOSの機械学習(Neural Engine)技術を利用し、 写真内に写る犬や猫の品種、花の名前、アートや本のタイトル、建物の詳細を表示できる「画像を調べる (Visual Look Up)」しましたが、この機能が本日リリースされたmacOS 12 Montereyでも一部の言語環境と地域で利用できるようになっています。 iOS 15/macOS 12 Montereyリ
AppleのVisionフレームワークを利用し、オフラインでもキャプチャしたテキストやQR情報をクリップボードにコピーしてくれるオープンソースのMac用OCRアプリ「TRex」がリリースされています。詳細は以下から。 Appleは2017年06月に開催したWWDC2017で、撮影した写真や画像から顔やテキスト、バーコードの検出、オブジェクトのトラッキングをオンデバイスで実行できるVisionフレームワークを発表し、この機能はCore MLと共にAppleのメモや写真アプリで利用されていますが、このVisionフレームワークを利用し、Macでキャプチャした画像からテキストを抽出してくれるOCRアプリ「TRex」がリリースされています。 TRex makes OCR easy and accessible on a Mac.But what is OCR anyway? Imagine you
Web用書き出し機能や機械学習を用いた自動カラー調整、Touch Bar/SVG/HEIFをサポートした「Pixelmator Pro v1.1 Monsoon」がリリースされています。詳細は以下から。 Mac/iOS用アプリPixelmatorシリーズを開発しているリトアニアのPixelmator Teamは現地時間2018年05月31日、Appleの機械学習技術「Core ML」やグラフィックスAPI「Metal 2」などを採用し、2017年11月にリリースしたMac用グラフィックスツール「Pixelmator Pro」をv1.1、コードネームMonsoonへアップデートしたと発表しています。 Pixelmator Pro 1.1 Monsoon is a massive update that brings a modern way to easily prepare images
2時間20分、米Appleの開発者カンファレンスWWDC 2017 (6月5日~9日)において、5日に行われた基調講演の長さである。それを飽きさせることなく見せたのもスゴかったが、過去最長規模の長さでも全体的に駆け足だった。元々入れたかった内容を全て入れたら3時間半になったそうで、目標の2時間を目指して詰めた結果が2時間20分である。だから、見ていてもう少し説明が欲しいと思うところもたくさんあった。 でも、WWDCにおいて同社のエグゼクティブが公で話すのは基調講演だけではない。WWDCに合わせてブログ「Daring Fireball」を運営するJohn Gruber氏のポッドキャスト「The Talk Show」のライブショーが行われており、一昨年からPhil Schiller氏 (ワールドワイドマーケティング担当シニアバイスプレジデント)が、そして昨年にCraig Federighi氏
AppleがWWDC 17で発表し、開発者向けに提供している人工知能の機械学習モデル「Core ML」は、画像に映っているものを非常に高い精度で識別する能力を持ちます。ただし、初代Mac Proのことは知らないようです。 対象を次々と正確に認識するCoreML 開発者のポール・ハダッド氏は、iPhoneのカメラで捕えた映像を「CoreML」が認識する様子を、iOS11の新機能スクリーンレコーディングで撮影し、公開しています。 ドライバーやパソコンのキーボード、段ボール箱を瞬時に正しく認識し、かなり高い精度で認識しています。 しかし、2台並んだ初代Mac Proが「スピーカー」と認識されます。 角度を変えてみると、今度は「スペースヒーター(暖房器具)」と認識しています。 こちらが、ハダッド氏によるスクリーンレコーディングの動画です。 I wasn’t joking either just g
静かなることWWDC2016のごとく フロリダ銃乱射事件の犠牲者への黙祷から始まった今年2016年のWWDCは、例年にもまして静かでした。ハードウェアはおろか、ソフトウェアも毎年恒例のOSアップデートを除けば「新製品」はなし。macO はiOSが10になることを考えれば、OS X(オーエステン)という名前をそのままにしておけないのは自明というものでしょう。Apple製品用のOSにマッチする正規表現も((watch¦tv¦i)OS¦OS ?X)だったのが(watch¦mac¦tv¦i)OSとなってずいぶんとすっきりしましたが、あくまでヴァージョンは“10.12”。灰色のバックグラウンドにアスキーアートのリンゴというロゴは、そんな地味なWWDCを実によく象徴しています。開発者ではないプレスの皆さんはさぞ退屈されたのではないでしょうか。 しかし本誌の読者にとって、WWDC2016はあくびし
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く