タグ

2021年10月13日のブックマーク (4件)

  • 相関係数/ピアソンの積率相関係数とは?

    用語「相関係数(ピアソンの積率相関係数)」について説明。相関係数とは2つの変数間の関係の強さと方向性を表す、1~0~-1の範囲の数値。1(強い正の相関)では、2つの変数が強く同方向に連動する。-1(強い負の相関)では強く逆方向に連動する。相関なしでは、連動しない。 連載目次 用語解説 数学/統計学/機械学習における相関係数(correlation coefficient)とは、2つの変数間の関係の強さと方向性(=相関:correlation)を表す、1~0~-1の範囲の数値である。1に近い値は「強い正の相関」、つまり2つの変数が強く同方向に連動することを意味する。0.3など0に近くなるほど相関は弱まっていき、0に近い値は「相関なし」、つまり2つの変数が連動しないことを意味する。また、-1に近い値は「強い負の相関」、つまり2つの変数が強く逆方向に連動することを意味する。 相関係数には主に、線

    相関係数/ピアソンの積率相関係数とは?
    misshiki
    misshiki 2021/10/13
    “相関係数とは2つの変数間の関係の強さと方向性を表す、1~0~-1の範囲の数値。1(強い正の相関)では、2つの変数が強く同方向に連動する。-1(強い負の相関)では強く逆方向に連動する。相関なしでは、連動しない。”
  • なぜpython使いは単純なfor文より醜悪なリスト内包表記を好むのか - 静かなる名辞

    煽りっぽいタイトルだが、この記事は真剣である。リスト内包表記にはpython哲学の質に関わる問題が潜んでいる。 python使いはリスト内包表記を好む。他の言語の使用者なら「for文で書きゃ良いのに」と思うような処理を、リスト内包表記で書くことを好む。 それはなぜなのか。 # 1~10の値を2乗して合算し、表示する # よくあるpythonコード print( sum([pow(x, 2) for x in range(1, 11)]) ) # こうきゃ良いのにと思う人が世間には多い(と思う) n = 0 for i in range(1, 11): n += pow(i, 2) print(n) # 他の言語の使用者が「ぎゅうぎゅうしててわかりづらいよ」と文句をいうと、python使いは不満げに改行して「これでいいだろ、上等だ」という表情を見せる print( sum([pow(x,

    なぜpython使いは単純なfor文より醜悪なリスト内包表記を好むのか - 静かなる名辞
    misshiki
    misshiki 2021/10/13
    “インデントが狂いそう”そうなの...。個人的には、for文だとループを回す制御を中心に考えるけど、内包表記だとリスト化するデータを絞るイメージで考えているので、機械学習だと内包表記が簡単に思える場面が多い。
  • GitHub - NVlabs/stylegan3: Official PyTorch implementation of StyleGAN3

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - NVlabs/stylegan3: Official PyTorch implementation of StyleGAN3
    misshiki
    misshiki 2021/10/13
    Alias-Free Generative Adversarial Networks (StyleGAN3) NeurIPS 2021論文の公式PyTorch実装
  • BERTを用いた教師なし文表現 - Retrieva TECH BLOG

    こんにちは。レトリバの飯田(@meshidenn)です。TSUNADE事業部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。今回は、教師なしの文表現作成手法SimCSEを紹介します。 背景・概要 手法 要因 実験 NLIタスクによる実験 クラスタリングによる実験 終わりに 背景・概要 自然言語処理は、昨今様々な領域へ応用することが期待されていますが、特に企業での応用においては、ラベル設計が出来ず、教師あり手法が使えない場面に遭遇することが多々あります。そんな場面で、きっと助けになってくれるのが教師なし手法です。特に、文の類似度については、様々なタスクやデータ作成に際して便利に使える場合があります。 近年、BERTなどの大規模事前学習済み言語モデルが出てきていましたが、教師なしの文類似度タスクの場合、BERTを使って単語をベクトルに変換し、そのベクトル

    BERTを用いた教師なし文表現 - Retrieva TECH BLOG
    misshiki
    misshiki 2021/10/13
    “教師なしの文類似度手法である、SimCSE: Simple Contrastive Learning of Sentence Embeddingsをご紹介し、日本語で簡単な実験”