家のキュウリが枯れてしまってから知りました。 ある程度パラメータがはっきりすれば 大規模なFPGAで処理できるかもしれません。 12月3日の大垣ミニメーカーズフェアでデジタルフィルタの人と会えたら話してみます。 返信削除
家のキュウリが枯れてしまってから知りました。 ある程度パラメータがはっきりすれば 大規模なFPGAで処理できるかもしれません。 12月3日の大垣ミニメーカーズフェアでデジタルフィルタの人と会えたら話してみます。 返信削除
この記事を読みニューラルネットワークに興味を持ち勉強を始めました。 ニューラルネットワークを目で見て直感的に理解できるのは素晴らしいですね。 半年以上も前の記事なのでコメントを読まれているか分かりませんが、お聞きしたいことがあります。 TensorFlow Playgroundの入力層のFeatureについて勉強をしているのですが、なぜ生の入力値(座標x,y)ではなく、Featureを間にかませているかその背景を教えていただきたいです。 というのも、MNISTのチュートリアル等では縦横28x28ピクセルの784個のアドレスのグレースケールの値を入力とし、入力層に784個のニューロンを並べている解説が 多く、TensorFlow Playgroundで行われているようなFeatureの選択がどこから出てきたものなのか分からないのです。 ちょっと宣伝のようになってしまいますが、自分の学習成果の
ディープラーニングが猛威を振るっています。私の周りでは昨年から多く聞かれるようになり、私も日経BPさんの連載で昨年5月にGoogleの買収したDeep Mind社について触れました。今年はさらに今までディープラーニングについて触れていなかったメディアでも触れられるようになってきましたね。例えば、イケダハヤトさんも先日。高知でも話題になっているのですね。 私事ですが、今度湯川鶴章さんのTheWaveという勉強会で、人工知能とビジネスについて一時間ほど登壇させていただくことになりました。有料セミナーということです。チャールズべバッジの解析機関についてはこのブログでも以前触れましたが、「機械が人間を置き換える」みたいな妄想は100年位は言われていることですね。「解析機関」「機械学習」「人工知能」「シンギュラリティー」など、呼び名はどんどん変わり、流行り廃りもありますが、最近ロボットの発達も相まっ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く