ゆるふわ 非構造#1 発表資料 非構造データ、構造化データ、LinkedDataの技術概要と OSS実装、活用イメージについて。Read less
ゆるふわ 非構造#1 発表資料 非構造データ、構造化データ、LinkedDataの技術概要と OSS実装、活用イメージについて。Read less
ハッシュタグ: #probrobo2015 講義内容 第十四回 課題の発表会でした。 事後学習 ツメの甘かった人は再度挑戦。 第十三回 GraphSLAM 事前学習 GraphSLAMの文献調査。 スライド
The document discusses pattern recognition and classification. It begins by defining pattern recognition as a method for determining what something is based on data like images, audio, or text. It then provides examples of common types of pattern recognition like image recognition and speech recognition. It notes that while pattern recognition comes easily to humans, it can be difficult for comput
知能制御システム学 画像追跡 (3) ― ベイズ推定とパーティクルフィルタ ― 東北大学 大学院情報科学研究科 鏡 慎吾 swk(at)ic.is.tohoku.ac.jp http://www.ic.is.tohoku.ac.jp/~swk/lecture/ 2012.07.10 2 鏡 慎吾 (東北大学): 知能制御システム学 2012.07.10 今日の内容 できるだけ予備知識を必要とせず,かつ天下りのないように 基礎の基礎から説明する.ただし厳密性には目を瞑る. • 確率の基礎 • 観測モデル • ベイズ推定 • 状態遷移モデル • 逐次ベイズ推定 • (カルマンフィルタ) • パーティクルフィルタ 追跡対象が一時的に遮蔽される場合や,見えの似た物体 が交錯するような場合は,過去の観測情報に基づいた予 測を導入することが必要となる.そのような例としてパー ティクルフィルタを紹介する
Wikipedia からスクレイピングして… とか言ってる人におすすめしたい,DBPedia からの情報抽出rdfスクレイピングWikipediaSPARQLdbpedia みなさん DBPedia をご存知でしょうか.DBPedia とは,Wikipedia から構造化データ (RDF) として情報を抽出するものです.DBPedia では Linked Data として情報が体系化されているので,Wikipedia 内の必要な情報を,非常に簡単に抽出することができます. 「◯◯ の情報を Wikipedia からスクレイピングして取ってきて…」みたいな話をよく耳にし,そんなのスクレイピングしなくても DBPedia 使えば一瞬なのに… と感じることが最近多々あるので,DBPedia の普及もかねて簡単にまとめてみることにしました.DBPedia なんて初めて聞いたという方は,ぜひチェック
owl:Thing Activity (edit) Game (edit) BoardGame (edit) CardGame (edit) Sales (edit) Sport (edit) Athletics (edit) TeamSport (edit) Agent (edit) Deity (edit) Employer (edit) Family (edit) NobleFamily (edit) FictionalCharacter (edit) ComicsCharacter (edit) AnimangaCharacter (edit) DisneyCharacter (edit) MythologicalFigure (edit) NarutoCharacter (edit) SoapCharacter (edit) Organisation (edit) Broadca
直感シリーズ第二弾,その2です。えっと,次は書くといいながら,300日弱の時が過ぎました。なんやて!(エセ関西弁)。ある程度ネタが集まったので書いていくことにします。 同内容はブログでも公開しております。 手持ちのデータをRDF化しよう。 実際にRDFを他のRDFと統合しようと思ったら手元のデータのRDF化が必要です。RDF自体の説明は前回のエントリをご覧頂くとして,ここでは,こんなデータを用意してみました。ある薬のデータです。シチュエーションとしては,ある研究所の研究支援部(あくまでFictionにしてあげてください)が支援している薬のデータをRDF化したとします。中身は,ある薬を基準として,その名前,製品名,drugbankID,疾患名,疾患分類であるicd10のIDをつけています。rdf(記法はttl形式)の中身はこうなります。 @prefix drugbank: <http://b
さて,前回までの直感RDF!でRDFの概要を学び,イカシタRDFを作成したり,情報収集する方法を紹介しました。今回は,外部のデータと繋げて検索する方法をご紹介します。 同内容はブログでも公開しております。 目的ー何するの? 今回は今まで作成したRDFのデータを使って,薬のターゲット情報や,特許情報を取得するまでを書いていきたいと思います。 外部のデータのことを知ろう。 外部のデータと繋げていくためには,外部のRDFデータについて知る必要があります。ここでは,薬のターゲット情報が知りたいので,bio2rdfで提供されているdrugbankの情報を見てみましょう。bio2rdfのトップページから,Vioxx [drugbank:DB00533 ]を選択します。右の検索窓に,drugbank:DB00143が表示されると思うのですが,これを自分の手持ちのデータのdrugbank ID - ここで
鉄道駅の駅名と位置データ(緯度・経度)を取得 PREFIX geo: <http://www.w3.org/2003/01/geo/wgs84_pos#> PREFIX dbpedia-owl: <http://dbpedia.org/ontology/> PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#> select * where { ?link a dbpedia-owl:Station; rdfs:label ?title; geo:lat ?lat; geo:long ?long. } 鉄道駅の駅名と位置データ(緯度・経度)を取得 PREFIX xsd: <http://www.w3.org/2001/XMLSchema#> PREFIX rdf: <http://www.w3.org/1999/02/22-rdf-synt
基本的なSPARQLクエリすべてトリプルを取得select * where { ?s ?p ?o . } LIMIT 100 検索例(DBpedia日本語版) 「東京都を主語(Subject)に含む」トリプルの述語(?p)と目的語(?o)を取得するselect distinct ?p ?o where { <http://ja.dbpedia.org/resource/東京都> ?p ?o . } LIMIT 100 検索例(DBpedia日本語版) 「ラベルに“大阪”を含む」トリプルの主語(?s)select distinct ?s where { ?s <http://www.w3.org/2000/01/rdf-schema#label>? "大阪"@ja . }LIMIT 100 検索例(DBpedia日本語版) 「ラベルが“大阪”と一致する」トリプルの主語(?s)につながっている
ダウンロード Apache JenaからJenaをダウンロードする。 解凍して適当なディレクトリに設置する。 環境変数 以下の環境変数を設定する。
導入pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 最尤推定、MAP推定 データの性質 情報理論の諸概念 (KL-divergenceなど) 距離あるいは類似度 数学のおさらいpdf 行列の微分 線形代数学の役立つ公式 多次元正規分布 条件付き正規分布 Bayes推論pdf Bayseによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味<\li> 正規分布と事後分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 b
読み:かくりつてきこうばいこうかほう 英名:Stochastic Gradient Descent 関連:近接勾配法,ビッグデータ 確率的勾配降下法(Stochastic Gradient Descent,以下 SGD)は確率密度関数 $p(z)$ に対して目的関数が期待値で表された以下のような最適化問題に対して有効なアルゴリズムである. $$ \min L(w) = \displaystyle\int{l(w,z)p(z)dz}. $$ 上式における $l,w,z$ をそれぞれ損失関数,モデルパラメータ,データに対応する確率変数の実現値とすれば,上記問題は機械学習における期待損失(汎化誤差)の最小化問題に他ならない.そこで,関数 $L(w)$ は期待損失と呼ぶことにする.期待損失の値やその勾配 $\nabla L(w)$ はいくつかの理由により計算困難である場合が多い.例えば分布 $p(
MementoWeaver開発記(11) 前回はJPAのEntityManagerを用いて単一のテーブルへのInsert(Persist)を実装したが、関連のある複数テーブルに跨る操作は未実装だった。 今回は関連のある複数テーブルの参照を実装する。 大まかな方針として、以下の段取りですすめる。 Derby上のテーブル間のリレーションを実装する。 Daliを用いてDerbyテーブルからEntity群をリバース生成する。 生成されたEntity群を用いて処理(具体的には、Material(親)とTaggedMaterial(子)に格納された情報を取得)する。 Derby上のテーブル間のリレーションを実装する まずは設計上のERを再確認。 リレーションは3本引かれているが、意味的には以下の2本。 素材[Material](1..1)----(0..m)タグ付素材[TaggedMaterial]
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く