タグ

wikipediaに関するInoHiroのブックマーク (569)

  • Dynamic time warping - Wikipedia

    Dynamic time warping between two piecewise linear functions. The dotted line illustrates the time-warp relation. Notice that several points in the lower function are mapped to one point in the upper function, and vice versa. Two repetitions of a walking sequence recorded using a motion-capture system. While there are differences in walking speed between repetitions, the spatial paths of limbs rema

    Dynamic time warping - Wikipedia
  • BibTeX - Wikipedia

    さらに各書誌項目には、その書誌を引用参照もしくは相互参照する際に用いられるキーが付与される。このキーは各書誌項目の先頭で与えられ、データ項目の一部とはならない。 エントリ種別[編集] 書誌情報ファイルに含まれる各エントリは、いくつかの種類に分けられる。以下の種類は全て BibTeX スタイルが解釈する。 article 雑誌に掲載された論文。 必須項目:author, title, journal, year オプション項目:volume, number, pages, month, note, key book 出版社が刊行した書籍。 必須項目:author/editor, title, publisher, year オプション項目:volume, series, address, edition, month, note, key booklet 出版社や機関名が明示的されていない印

    BibTeX - Wikipedia
  • 冪乗則 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "冪乗則" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2023年3月) この項目「冪乗則」は途中まで翻訳されたものです。(原文:en:Power law) 翻訳作業に協力して下さる方を求めています。ノートページや履歴、翻訳のガイドラインも参照してください。要約欄への翻訳情報の記入をお忘れなく。(2008年5月) 冪乗則にしたがうグラフの例。横軸が商品のアイテム数、縦軸が販売数量を表す。このモデルは「80:20の法則」として知られ、右に向かう部分はロングテールと呼ばれる。 冪乗則(べきじょうそく、power law)は、統計モデルの一つ。

    冪乗則 - Wikipedia
  • 曲線あてはめ - Wikipedia

    曲線あてはめ(きょくせんあてはめ)またはカーブフィッティング(英: curve fitting)[1][2][3][4]は、実験的に得られたデータまたは制約条件に最もよく当てはまるような曲線を求めること。最良あてはめ、曲線回帰とも。一般に内挿や回帰分析を用いる。場合によっては外挿も用いる。回帰分析で曲線を求める場合、その曲線はデータ点を必ず通るわけではなく、曲線とデータ点群の距離が最小になるようにする。曲線あてはめによって得られた曲線を、近似曲線という。特に回帰分析を用いた場合には回帰曲線という。現実の実験データは直線的ではないことが多いため散布図、近似曲線を求める必要性は高い。 一般論[編集] 最小二乗法による最適関数の推定[編集] 我々が考えるべき問題は、実験データを実験を説明する「説明変数」と「目的変数」に分類した上で、説明変数 と、目的変数yの関係 を求めることである。説明変数とし

    曲線あてはめ - Wikipedia
  • 共役勾配法 - Wikipedia

    線型方程式の二次形式を最小化するための、最適なステップサイズによる最急降下法(緑)の収束と共役勾配法(赤)の収束の比較。共役勾配法は、厳密にはn次の係数行列に対して高々nステップで収束する(ここではn=2)。 共役勾配法(きょうやくこうばいほう、英: conjugate gradient method、CG法とも呼ばれる)は対称正定値行列を係数とする連立一次方程式を解くためのアルゴリズムである[1][2][3][4]。反復法として利用され[1][2][3][4]、コレスキー分解のような直接法では大きすぎて取り扱えない、大規模な疎行列を解くために利用される。そのような問題は偏微分方程式などを数値的に解く際に常に現れる[1][5][6][7]。 共役勾配法は、エネルギー最小化などの最適化問題を解くために用いることもできる[8][9][10]。 双共役勾配法(英語版)は、共役勾配法の非対称問題へ

    共役勾配法 - Wikipedia
  • 最急降下法 - Wikipedia

    この項目では、最適化アルゴリズムについて説明しています。解析的(漸近)近似については「最急降下法 (漸近解析)(英語版)あるいは鞍点法(英語版)」をご覧ください。 最急降下法(さいきゅうこうかほう、英: gradient descent, steepest descent)[1]は、関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。勾配法としては最も単純であり、直接・間接にこのアルゴリズムを使用している場合は多い。最急降下法をオンライン学習に改良した物を確率的勾配降下法と呼ぶ。 尚、最急降下法の“最急”とは、最も急な方向に降下することを意味している。すなわち、収束の速さに関して言及しているわけではない(より速いアルゴリズムがあり得る)。 手法[編集] n 次のベクトル x = (x1, x2, ... , xn) を引数とす

  • libvirt - Wikipedia

    libvirtはKVMなどのハイパーバイザをサポートし、virt-managerなどの管理ソリューションをサポートする。 libvirtとは、仮想化管理用の共通APIを提供する、レッドハットを中心としたオープンソースプロジェクトである。 libvirtは仮想機械の制御を抽象化したライブラリである。 ライブラリの特徴は、サポート範囲が広いことである。 サポートしている仮想化は、現在Xen、KVM、QEMU、LXC、OpenVZ、UML、VirtualBox、VMware ESX・GSX・Workstation・Player、Hyper-V、そしてクラスタ管理ソフトOpenNebulaである。 更なる対象仮想機械の拡大を目指して例えば、対応やLinux-VServerのサポートをどうするかなどが開発者メーリングリスト上で議論された。 また、様々な版数でのサポートも特徴である。たとえば、Xen

    libvirt - Wikipedia
  • ランダムウォーク - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "ランダムウォーク" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2011年5月) 2次元ランダムウォークの軌跡。 ランダムウォーク(英: random walk)は、次に現れる位置が確率的に無作為(ランダム)に決定される運動である。日語の別名は酔歩(すいほ)、乱歩(らんぽ)である。グラフなどで視覚的に測定することで観測可能な現象で、このとき運動の様子は一見して不規則なものになる。 ブラウン運動と共に、統計力学、量子力学、数理ファイナンス[1][2]等の具体的モデル化に盛んに応用される。 数学的定義[編集] () を独立かつ同分布な 値

    ランダムウォーク - Wikipedia
  • ヘルベチカ - Wikipedia

    ラテン文字部分がHelvetica、駅名とその振り仮名は新ゴ Helvetica (ヘルベチカ) は、1957年にスイス人書体デザイナーのマックス・ミーディンガー(英語版) (Max Miedinger) とエドゥアルト・ホフマン (Eduard Hoffmann) が発表したサンセリフの欧文書体。簡素で落ち着いた書体でありながら説得力に富む力強さが特長で、用途を選ばない幅広い汎用性がある。現在最も使用される書体の一つとなっているほか、出版や広告の業界では必要不可欠な書体として知られる。 今日ではフォントとして誰でも手軽に利用でき、Macintoshでは オペレーティングシステム (OS) に付属する標準フォントの一つとなり、iOS(8以前)ではシステムフォントである。 「Helvetica」の名称は、ラテン語で「スイス」を意味するHelvetia(ヘルウェティア / ヘルヴェティア)の形

    ヘルベチカ - Wikipedia
  • Category:Join algorithms - Wikipedia

    InoHiro
    InoHiro 2011/05/24
    Join Algorithms
  • wikipediaのワクワクする記事を教えてくれ : まめ速

    1:以下、名無しにかわりましてVIPがお送りします:2011/05/19(木) 06:40:07.49ID:GDrHbKJ30 かっこいい項目名とか興味そそるような奴とかそんなんあったら教えてくれ 【絶叫する60度】 http://ja.wikipedia.org/wiki/%E7%B5%B6%E5%8F%AB%E3%81%99%E3%82%8B60%E5%BA%A6 絶叫する60度 絶叫する60度(ぜっきょうする60ど、Shrieking Sixties、Screaming Sixties)は、南緯60度から70度にかける海域の俗称である。南極海を航行する船は、吠える40度、狂う50度を超えたこの海域でさらに強い嵐に見舞われる。南米最南端のティエラ・デル・フエゴと南極大陸最北端の南極半島の間、ドレーク海峡はこの海域に相当する。この緯度帯では、地球を周回する偏西風や海流(南極環流)の行く手

    wikipediaのワクワクする記事を教えてくれ : まめ速
  • レコメンダシステム - Wikipedia

    レコメンダシステム(英: recommender system)は、情報フィルタリング (IF) 技法の一種で、特定ユーザーが興味を持つと思われる情報(映画音楽、ニュース、画像、ウェブページなど)、すなわち「おすすめ」を提示するものである。通常のレコメンダシステムは、ユーザーのプロファイルを何らかのデータ収集基準と比較検討し、ユーザーが個々のアイテムにつけるであろう評価を予測する。基準は情報アイテム側から形成する場合(コンテンツベースの手法)とユーザーの社会環境から形成する場合(協調フィルタリングの手法)がある。 概要[編集] ユーザーのプロファイルを構築するとき、データ収集の明示的部分と暗黙的部分を区別する。 明示的データ収集には次のようなものがある。 ユーザーにあるアイテムの評価を付けてもらう(例えば5段階評価)。 ユーザーに一群のアイテムを好きか嫌いかランク付けしてもらう。 ユ

  • 協調フィルタリング - Wikipedia

    協調フィルタリングを使用してユーザーの評価を予測する例。最初は、さまざまな項目 (動画、画像、ゲームなど) を評価する。その後、システムは、ユーザーがまだ評価していないアイテムに対するユーザーの評価について予測する。これらの予測は、アクティブなユーザーと同様の評価を持つ他のユーザーの既存の評価に基づいて作成される。例えば上記の場合、システムは、アクティブなユーザーがビデオを気に入らないだろうと予測している。 協調フィルタリング(きょうちょうフィルタリング、Collaborative Filtering、CF)は、多くのユーザの嗜好情報を蓄積し、あるユーザと嗜好の類似した他のユーザの情報を用いて自動的に推論を行う方法論である。趣味の似た人からの意見を参考にするという口コミの原理に例えられることが多い。 例えば、ユーザAがアイテムXを好むとすると、アイテムXを好む別のユーザBが好むアイテムYを

    協調フィルタリング - Wikipedia
  • tf-idf - Wikipedia

    情報検索の分野において、tf–idf (または、 TF*IDF、TFIDF、TF–IDF、Tf–idf)は、term frequency–inverse document frequencyの略であり、コーパスや収集された文書群において、ある単語がいかに重要なのかを反映させることを意図した統計量(数値)である[1]。また、tf-idfは情報検索や、テキストマイニング、ユーザーモデリング(英語版)における重み係数(英語版)にもよく用いられる。ある単語のtf-idfの値は文書内におけるその単語の出現回数に比例して増加し、また、その単語を含むコーパス内の文書数によってその増加が相殺される。この性質は、一般にいくつかの単語はより出現しやすいという事実をうまく調整することに役立っている。今日、tf-idfはもっとも有名な語の重みづけ(term-weighting)手法である。2015年に行われた研究

  • Probabilistic latent semantic analysis - Wikipedia

    Probabilistic latent semantic analysis (PLSA), also known as probabilistic latent semantic indexing (PLSI, especially in information retrieval circles) is a statistical technique for the analysis of two-mode and co-occurrence data. In effect, one can derive a low-dimensional representation of the observed variables in terms of their affinity to certain hidden variables, just as in latent semantic

  • Latent Dirichlet allocation - Wikipedia

    One application of LDA in machine learning - specifically, topic discovery, a subproblem in natural language processing – is to discover topics in a collection of documents, and then automatically classify any individual document within the collection in terms of how "relevant" it is to each of the discovered topics. A topic is considered to be a set of terms (i.e., individual words or phrases) th

  • ブロックソート - Wikipedia

    ブロックソート、ブロックソーティング、Burrows-Wheeler変換 (Burrows-Wheeler Transform; BWT) は、1994年にマイケル・バローズ (Michael Burrows) とデビッド・ホイーラー (David Wheeler) が開発した可逆変換の方式で、データ圧縮の前処理に応用される。 ブロックソート自体はデータの大きさを変えない。しかし、データを整列することでデータ中に出現するパターンを、いくつかのよく知られている手法で圧縮し易いものにできる。後処理としてMove To Front (MTF)・連長圧縮 (RLE)・エントロピー符号と組み合わせて、データを圧縮する。 実装はbzip2等。 長さ n のデータを巡回シフトし、得られるすべての文字列を辞書順にソートする。このようにしてできた n×n 行列の第 n 列を取り出したものが、BWT系列である

  • 天国に一番近い男 - Wikipedia

    『天国に一番近い男』(てんごくにいちばんちかいおとこ 英:heaven cannot wait)は、毎週金曜日21:00 - 21:54に、TBS系で放送された日テレビドラマ。松岡昌宏(TOKIO)と陣内孝則のダブル主演作。 MONOカンパニー編(第1期)が1999年1月8日から3月19日まで、教師編(第2期)が2001年4月13日から6月29日まで放送された。 作品当初は、第1期(MONOカンパニー編)全11回とスペシャルが2回放送されていたが、2001年には主役と一部のキャスト以外はキャストを一新した第2期(教師編)全12回が放送されている。両シリーズとも長らくDVD化されていなかったが、放送終了から9年目の2010年にDVDが発売された。松岡が『大恋愛〜僕を忘れる君と』(2018年10月期)に出演した際、第1期と第2期がParaviにおいて配信された(期間限定)[1]。 概要[編

  • 潜在意味解析 - Wikipedia

    潜在意味解析(せんざいいみかいせき、英: Latent Semantic Analysis、略称: LSA)は、ベクトル空間モデルを利用した自然言語処理の技法の1つで、文書群とそこに含まれる用語群について、それらに関連した概念の集合を生成することで、その関係を分析する技術である。潜在的意味解析とも。 1988年、アメリカ合衆国でLSAの特許が取得されている[1]。情報検索の分野では、潜在的意味索引または潜在意味インデックス(英: Latent Semantic Indexing, LSI)とも呼ばれている。 出現行列[編集] LSA では、各文書における用語の出現を表した文書-単語マトリクスが使われる。これは各行が各単語に対応し、各列が各文書に対応した疎行列である。この行列の各成分の重み付けには tf-idf (term frequency–inverse document frequen

  • Precision and recall - Wikipedia

    Precision and recall In pattern recognition, information retrieval, object detection and classification (machine learning), precision and recall are performance metrics that apply to data retrieved from a collection, corpus or sample space. Precision (also called positive predictive value) is the fraction of relevant instances among the retrieved instances. Written as a formula: Recall (also known

    Precision and recall - Wikipedia