Videos of JSConf EU 2018.

題名:人工的な構造物の欠点に関する一考察 報告者:エゲンスキー 人の知能といえば、人が他の動物と異なる進化を選んだ自然界がもたらした一つの結果となる。そのため、人の知能は、自然知能の最たるものとも言い換えることができようか。これに対して、人工的な知能は何かと言えば、昨今の人工知能に他ならない。その人工知能は、人の神経ニューロンを摸した形のニューラルネットワークで構造化され、現在、最も進んだニューラルネットワークの形式であるDeep Learningも、人が持つ脳の階層性を摸し、その構造から深いニューラルネットワークとも言われている1)。しかしながら、人の脳も、元々は全部で6つの階層構造で形作られている2)。この神経ネットワークの複雑さが、学習、記憶、運動、認知などの高度な情報処理を可能としている2)。このことから、やがて人工知能が人の持つ自然知能を越えるかもしれないという技術的特異点(Te
It’s clear by now that the robots are coming for us. Breakthroughs in AI fill our streams and news feeds, themselves the products of AI, the echoing algorithmic screams of a new kind of mind being born. Using deeplearn.js, we’ll find out how deep learning systems learn and examine how they think. The fundamental building blocks of AI have never been more accessible. Let’s explore the architectur
It is aimed at deep learning and, unlike FlexPod (Cisco and NetApp's converge infrastructure), has no brand name. Unlike AIRI, neither does it have its own enclosure. A NetApp and Nvidia technical whitepaper – Scalable AI Infrastructure Designing For Real-World Deep Learning Use Cases (PDF) – defines a reference architecture (RA) for a NetApp A800 all-flash storage array and Nvidia DGX-1 GPU serve
Back in September 2017, Davis King released v19.7 of dlib — and inside the release notes you’ll find a short, inconspicuous bullet point on dlib’s new 5-point facial landmark detector: Added a 5 point face landmarking model that is over 10x smaller than the 68 point model, runs faster, and works with both HOG and CNN generated face detections. My goal here today is to introduce you to the new dlib
cuzic (a.k.a Tomoya Kawanishi )です。 いまは RubyKaigi に来ています。 速報的に 1日目の内容のまとめの記事を公開します。 Matz: Keynote Aaron Patterson: Analyzing and Reducing Ruby memory Usage Kenta Murata 、Yusaku Hatanaka :Deep Learning Programming on Ruby Piotr Murach : TTY - Ruby alchemist’s secret potion Naotoshi Seo : Fast Numerical Computing and Deep Learning in Ruby with Cumo Emma Haruka Iwao : Exploring Internal Ruby Through C
深層学習フレームワークの Chainer は、アマゾン ウェブ サービス(AWS) の協力により、多数の AWS アプリケーションで利用できるようになりました。Chainerは、ニューラルネットワークを簡単に扱える Pythonのフレームワークですが、AWSと組み合わせる事で、マルチ GPU やマルチサーバーにおける Chainer の並外れたスケーリング能力を最大限活用できます。Chainer の非常に優れたスケーリング能力については、ImageNet-1K を利用した ResNet50 の学習を、それまで最速とされた Facebook の記録より4倍速い15分で完了した事により実証済みです。 Chainer のマルチ GPU とマルチサーバーのスケーリングにより、必要時に必要量の計算資源を提供するというクラウドの利点を有効活用できます。Chainer の比類なき並列計算能力と AWS
Deep Learning の training 時間は短いものでは数十分、長いものでは数日に及ぶ。その training が走っている間は、何をすると1番プロダクティブだろうか。いくつかの候補とそれぞれの利点と欠点を以下にまとめてみた。 SNS やメールのチェック コーディング時には後回しにしていた、返事をするのも良いだろう。欠点はもちろん皆さんご存知の通り。気づいたらあっという間に時間を吸い取られること。そしてプロジェクトへのフォーカスが失われることだ。 リファクタリング コードを常にクリーンに保つことは、プロジェクト全体のプロダクティビティ向上に通じる。ただし機械学習のコードはテストが書けない場合が多いので注意が必要。テストによって支えられていないリファクタリングでは必ず IDE の助けを借りよう。リファクタリングの欠点は2つ。1つ目は現在走っているコードと、リファクタリングによって
2009年の5月1日から9年間個人事業主として活動してきましたが、2018年5月11日に法人化したので、知り合いへの報告と、同じように法人化を検討している自営業の方の参考になるかもしれないので、経緯をまとめておきます。 もともと個人事業主になった経緯は、前職のベンチャーをやめた時まだ社会人博士課程在学中で、二足の草鞋状態で雇ってくれるところもないだろうということで、とりあえず独立しました。 もう一つ、それまでリストラ2回とブラック会社勤務を経験し、年齢的にも転職が厳しくなると言われている三十路中盤だったため、今後サラリーマンを続けていくことに不安を感じていました。そこで、とりあえず自分の名前で仕事取ってこれるようになれば、リストラもブラック会社怖くないだろうというのも理由です。 独立直後は赤字案件に捕まって生活が追い込まれたりもしましたが、なんとか博士号も取得し、お客さんにも恵まれてこれま
はじめに オペレーションチームの下田です。 2018年 5月 30日(水) 〜 6月 1日(金)の期間に、グランドプリンスホテル新高輪で開催される日本最大級のクラウドコンピューティングカンファレンス AWS Summit Tokyo 2018 に参加しています。 「AWS の機械学習サービス入門」を聴講しましたので、レポートしたいと思います。 スピーカーは、 アマゾン ウェブ サービス ジャパン株式会社 技術統括本部 ソリューションアーキテクト 川村 誠さんです。 セッションに関する紹介文を、公式サイトから引用します。 セッション一覧 - AWS Summit Tokyo 2018(2018 年 5 月 30 日~ 6 月 1 日)|AWS AWS re:Invent 2017 で拡張された機械学習/深層学習サービス群の今と、サービスレイヤーを中心としたアップデートについてご紹介します。
(弊社からの RubyKaigi 2018 速報リンク: 2 日目 / 3 日目) こんにちは。デジタル・トランスフォーメーション(DX)事業部エンジニアの中嶋(@nyamadorim)です。 Twitter の画像リストを見てもらえるとわかるんですが、私は書道の人です。 最近は、TypeScript + React でフロントエンド 8 割、Rails で JSON API を書くのが 2 割ぐらいで、RubyKaigi の Speee ブースでデモを行った架電ツールの開発を行っています。 RubyKaigi 2018 は 2 年ぶりの参加です。では、少し遅くなりましたが一日目の発表内容のレポートといきましょう。 Keynote 一日目の Keynote は、弊社技術顧問の Matz さんからです。 発表ではことわざを通して、Matz がプログラミングや Ruby という言語コミュニティ
ディープコアは5月31日、シード、アーリーステージのAIスタートアップへの投資を目的とした、ベンチャーキャピタルファンド「DEEPCORE TOKYO1号 投資事業有限責任組合」の設立を発表した。 本ファンドは、シード、アーリーステージの有望なAIスタートアップに投資を行い、成長を支援することが目的。ディープコアが運営する「KERNEL HONGO」から生まれたAIスタートアップや、すでに設立されているAIスタートアップも投資対象としている。 募集は最終クロージングが完了する12月まで行う予定。具体的には、事業面および技術面のサポートや、アーリーステージでの資金提供、次ラウンド以降の資金調達を支援する。 さらに、NVIDIAのサポートによる技術コンサルティングの提供や、「Deep Learning Institute(DLI)」の開催、「Inception Program」への推薦に加え、
So you’ve learned some React and built a few things. You’ve probably used create-react-app or react-slingshot to get off the ground quickly with minimal configuration. However, now you’re ready to venture out on your own with your very own React boilerplate. WHERE. TO. START??? I recently faced this same dilemma. It was a struggle but at the end of it, I had a solid repo that I could use as a basi
In this tutorial, Deep Learning based Human Pose Estimation using OpenCV. We will explain in detail how to use a pre-trained Caffe model that won the COCO keypoints challenge in 2016 in your own application. We will briefly go over the architecture to get an idea of what is going on under the hood. 1. Pose Estimation (a.k.a Keypoint Detection) Pose Estimation is a general problem in Computer Visio
By Hamza Butt 仕事や学校、趣味などで何か新しいことを学ぶことは楽しみがある反面、特にそのことを強制的に押し付けられている時などには、苦痛と思うように進まない「もどかしさ」にさいなまれることもあるものです。そんな時に、効率良く学習を進めるための方法として、メールやSNSなどの雑音を排除して集中できる環境を作る「ディープ・ワーク」と30時間を7つのセグメントに分けて学習を進める「30時間学習法」がブログで解説されています。 The Importance of Deep Work & The 30-Hour Method for Learning a New Skill | Azeria Labs https://azeria-labs.com/the-importance-of-deep-work-the-30-hour-method-for-learning-a-new-ski
機械学習に必要な知識 ネット上の様々な意見 機械学習への携わり方と必要な数学 具体的に勉強を進める 簡単な問題で動作を確認 プログラムを書く Kaggleはやるべき? 勉強を進める上で使えるツールたち Python Jupyter Notebook scikit-learn TensorFlow 機械学習に必要な知識 ネット上の様々な意見 機械学習の勉強をしていく上で大事なものは何でしょうか。 調べればプログラミングだとか統計だとか、解析学・線形代数学であるなど、いろいろな意見が見られます。 おそらくネット上で見つかるいろいろな意見、「機械学習では○○を勉強すべき」という話は、少なくともその話を言っている人の中では真であるのだろうと思われます。 要するに、その勉強をしたことによって(あるいはその知識を持っていたことによって)、その人は何らかの機械学習に対する知見が得られたと言っているのです
ちゃお・・・† 舞い降り・・・† 先日、前処理大全という本を読んで自分なりに何か書きたいなと思ったので、今回は自然言語処理の前処理とそのついでに素性の作り方をPythonコードとともに列挙したいと思います。必ずしも全部やる必要はないので目的に合わせて適宜使ってください。 前処理大全[データ分析のためのSQL/R/Python実践テクニック] 作者:本橋 智光技術評論社Amazon 前処理 余分な改行やスペースなどを除去 with open(path) as fd: for line in fd: line = line.rstrip() アルファベットの小文字化 text = text.lower() 正規化 (半角/全角変換などなど) import neologdn neologdn.normalize('ハンカクカナ') # => 'ハンカクカナ' neologdn.normalize
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く