Facebookで投稿や写真などをチェックできます。
Facebook、リアルタイムで体のポーズを検出し、人を背景から分離させる新しい機械学習フレームワーク「Mask R-CNN2Go」を発表。モバイル使用も可能 2018-01-26 Facebookは、リアルタイムで体のポーズを正確に検出し、人を背景から分離させる新しい技術「Mask R-CNN2Go」を発表しました。 本技術は、ResNetに基づいたMask R-CNNフレームワークを用いており、画像内のオブジェクトを検出すると同時に、キーポイントを予測し、オブジェクトごとにセグメンテーションマスクを生成します。 また、NNPack、SNPE、MetalなどのモバイルCPUとGPUライブラリを利用することで、モバイル計算速度を大幅に向上させ、スマートフォンでの実行も可能にします。 現在は研究段階ですが、将来的にはボディマスクの作成、ジェスチャゲームの制御などの新しいアプリケーションで使用
ResourcesResources and tools for advancing AI, together Cutting-edge open source frameworks, tools, libraries, datasets and models for research exploration to large-scale production deployment. Frameworks and tools Sharing our ML frameworks and tools with the community to collaborate and accelerate the advancement of AI
Facebook、Deep learningベースのコンピュータビジョン物体検出アルゴリズム「Detectron」をオープンソース化。活用した研究論文も多数公開済み 2018-01-24 Facebook AI Research(FAIR)は、Deep learningを用いたコンピュータビジョン・オブジェクト検出アルゴリズム「Detectron」をオープンソースにて公開しました。 Detectronは、Facebookが開発したDeep learningフレームワーク「Caffe2」上に構築した物体検出を可能にするプラットフォームです。GitHubにてApache License 2.0下で提供されます。 また、FAIRでは、Detectronを活用した研究もすでに進められており、論文も多数公開されています。 [1612.03144] Feature Pyramid Networks f
Today we’re relicensing the GraphQL specification under the Open Web Foundation Agreement (OWFa) v1.0. We think the OWFa is a great fit for GraphQL because it’s designed for collaborative open standards and supported by other well-known companies. The OWFa allows GraphQL to be implemented under a royalty-free basis, and allows other organizations to contribute to the project on reasonable terms. A
Accurate, Large Minibatch SGD: Training ImageNet in 1 HourData @ Scale Deep learning thrives with large neural networks and large datasets. However, larger networks and larger datasets result in longer training times that impede research and development progress. Distributed synchronous SGD offers a potential solution to this problem by dividing SGD minibatches over a pool of parallel workers. Yet
At Facebook, every change made to our mobile code is checked by our static analyzer Infer. Static code analyzers are tools that scan the source code of a program to detect possible bugs. The main advantage of a static analyzer is its ability to detect bugs without running the program and before the software is shipped to the users. One benefit of Infer over other static analyzers is that it perfor
Today, the volume of photos taken by people with smartphone cameras challenges the limits of structured categorization. It is difficult for one person to categorize their own repository of smartphone photos, much less to define a structured taxonomy for everyone’s photos. On Facebook, people share billions of photos every day, making it challenging to scroll backward in time to find photos posted
Language translation is important to Facebook’s mission of making the world more open and connected, enabling everyone to consume posts or videos in their preferred language — all at the highest possible accuracy and speed. Today, the Facebook Artificial Intelligence Research (FAIR) team published research results using a novel convolutional neural network (CNN) approach for language translation t
今月から始まるGAFA各社の開発者向け会議シリーズの先陣を切って、4/18-19にFacebookの開発者会議f8が開催されました。 昨年のf8では、「今後10年間の開発のロードマップ」が初めて公開されましたが、今回はその中身がより具体的になったという印象です。 これが今回のf8での10年ロードマップですが、Instagramが[Product]から[Ecosystem]に格上げになったのと、Workplaceが[Product]に追加になった程度で、去年から大きな変化はありません。 10年の視野で「Connectivity」「AI」「VR/AR」という三つの[Technology]を柱に据え、それを徐々に[Product]化をしていき、そこから花開いたものについては開発者コミュニティを巻き込みながら[Ecosystem]化していくという構成になっています。 現時点でEcosystemに位
Last week we hosted Machine Learning @Scale, bringing together data scientists, engineers, and researchers to discuss the range of technical challenges in large-scale applied machine learning solutions. More than 300 attendees gathered in Manhattan's Metropolitan West to hear from engineering leaders at Bloomberg, Clarifai, Facebook, Google, Instagram, LinkedIn, and ZocDoc, who all shared diverse
目が不自由なFacebookユーザーのために写真の内容を説明する機能がアップグレードされ、視覚に障害のないユーザーにも役立つ機能となった。 簡潔に説明すると、Facebookの人工知能(AI)技術は、写真に関する説明を視覚障害者に対して読み上げる際、名詞だけでなく動詞も使えるようになった。 Facebookの応用機械学習グループを率いるJoaquin Candela氏は、米国時間2月2日に投稿したブログ記事で次のように述べている。「最近まで、こうした説明文では写真に映っている物体しか説明していなかった。このほど12通りの動きを追加したので、『歩いている人』『踊っている人』『馬に乗っている人』『楽器を演奏している人』といった写真の説明ができるようになったことを、本日発表する」 この技術は、視覚障害者だけでなく、Facebookを毎日利用している12億3000万人のユーザーにも役立つ。「Goo
Join us in Silicon Valley September 18-19 at the 2024 PyTorch Conference. Learn more. Learn Get Started Run PyTorch locally or get started quickly with one of the supported cloud platforms Tutorials Whats new in PyTorch tutorials Learn the Basics Familiarize yourself with PyTorch concepts and modules PyTorch Recipes Bite-size, ready-to-deploy PyTorch code examples Intro to PyTorch - YouTube Series
As the technological challenges of tech companies get bigger and badder, a crowd of physicists is moving in on the engineer headcount. It's a bad time to be a physicist. At least, that’s what Oscar Boykin says. He majored in physics at the Georgia Institute of Technology and in 2002 he finished a physics PhD at UCLA. But four years ago, physicists at the Large Hadron Collider in Switzerland discov
People are creating, sharing, and storing data at a faster rate than at any other time in history. When it comes to innovating on storing and transmitting that data, at Facebook we're making advancements not only in hardware — such as larger hard drives and faster networking equipment — but in software as well. Software helps with data processing through compression, which encodes information, lik
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く