並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 22 件 / 22件

新着順 人気順

COSiNEの検索結果1 - 22 件 / 22件

  • コサイン類似度(Cosine Similarity)とは?

    用語「コサイン類似度」について説明。2つのベクトルが「どのくらい似ているか」という類似性を表す尺度で、具体的には2つのベクトルがなす角のコサイン値のこと。1なら「似ている」を、-1なら「似ていない」を意味する。主に文書同士の類似性を評価するために使われている。 連載目次 用語解説 数学/統計学/機械学習におけるコサイン類似度(Cosine Similarity)とは、2つのベクトルが「どのくらい似ているか」という類似性を表す尺度で、具体的には(ベクトル空間における)2つのベクトルがなす角のコサイン値のことである。この値は、2つのベクトルの内積(=向きと大きさを持つベクトル同士の掛け算)を、2つのベクトルの大きさ(=L2ノルム)で割ることで計算される。 この計算によって値が-1~1の範囲に正規化されるので、コサイン類似度が、 1なら「0度で、同じ向きのベクトル=完全に似ている」 0なら「90

      コサイン類似度(Cosine Similarity)とは?
    • Cosine on Twitter: "研究室に貼ってある紙が最高すぎて思わず写真撮っちゃった https://t.co/cv9SDn2wMk"

      研究室に貼ってある紙が最高すぎて思わず写真撮っちゃった https://t.co/cv9SDn2wMk

        Cosine on Twitter: "研究室に貼ってある紙が最高すぎて思わず写真撮っちゃった https://t.co/cv9SDn2wMk"
      • Implementing cosine in C from scratch

        Implementing cosine in C from scratch 7/19/2020 Update 7/20: See the discussion of this post on Reddit. Update 3/22: See more discussion of this post on Hacker News and Reddit. Update 6/23: See even more discussion of this post on Hacker News. TL;DR: I explored how to implement cosine using a few different approaches. One of the implementations is nearly 3x faster than math.h if you are ok with 4

          Implementing cosine in C from scratch
        • elasticsearch で cosine類似度検索する - nykergoto’s blog

          全文検索エンジンで cosine 類似度検索できるらしいというのを bert × elasticsearch の記事で見かけてとてもたのしそうだったので、自分でも環境作るところからやってみました。 hironsan.hatenablog.com やっているのは以下の内容です docker/docker-compose で elasticsearch x kibana x jupyter の立ち上げ jupyter の python から実際に特徴量ベクトルの登録 + 検索の実行 kibana での可視化 (ちょっとだけ) 紹介するコードはすべて以下のリポジトリから参照できます。 github.com Requirements docker docker-compose Setup docker-compose build docker-compose up -d 以上実行するとサーバーが3

            elasticsearch で cosine類似度検索する - nykergoto’s blog
          • AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ - Qiita

            AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ論文読みMetricLearningFaceRecognition CVPR2019(Oral)に採択されたAdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだので記録を残します。 図と表は論文から引用しています。 間違い等お気づきの点ありましたらコメントいただけると幸いです。 事前知識 昨今話題のmetric learningの手法です。metric learningについてはこちらが非常にわかりやすくまとめてくださっているのでそちらを参考にしてください。 概要 A

              AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ - Qiita
            • How to calculate cosine similarity of array in BigQuery - ITips

              How can we calculate cosine similarity in BigQuery ? BigQuery(BQ) is very useful for data analysis or processing. It is good at handling huge data. It returns summary result in short time. BQ has one useful data format array. When we consider array as vector, we may want cosine similarity of vectors. So how can we get cosine similarity ? So today I introduce about "How to calculate cosine similari

                How to calculate cosine similarity of array in BigQuery - ITips
              • Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog

                学習初期は徐々に学習率を上げていく「Warmup」と、学習率をなめらかに下げていく「Cosine Annealing」を1つのオプティマイザーとして楽に実装する方法を、timmライブラリを使って見ていきます。 timmについて timm(PyTorch Image Models)という便利なライブラリがあります。画像のTransformer系の論文実装で特によく使われているライブラリです。 このライブラリでは訓練済みのモデルの係数の提供の他に、Data Augmentationや学習率のスケジューラーも入っています。RandAugmentやCutMix、Mixupといった、ディープラーニングのフレームワークには組み込まれていないが、1から実装するとそこそこ大変なAugmentを使いたいときはかなり便利です。PyTorchのデフォルトのコードとも相互運用できるようになっています。 Cosin

                  Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog
                • cosine similarityの重み付けを使った、パーソナライズできるrecommender systemのベースライン - メモ帳

                  アイテム情報とユーザー情報を組み合わせた、パーソナライズされた推薦を行う基本的なシステムを紹介します。重み付けしたcosine similarity (コサイン類似度)によるシンプルな手法です。いわゆるcontent-basedなrecommendになっています。 機械学習を使った推薦システムでは、metric learningやautoencoderなどで高尚な特徴量に変換し、類似度の大きさを指標としたものが派手な話題性の高い手法だと思います。しかし、これらの手法は直感的でないので、うまく学習できないと全く使えないものになると思います。そこで、保守的な、ベースラインとして使う想定の手法を紹介したいと思います。 推薦システム まずは、recommendの概要を簡単にまとめます。 recommnedは主に以下の2種類のアルゴリズムが使われます。 content-based (コンテンツベース

                    cosine similarityの重み付けを使った、パーソナライズできるrecommender systemのベースライン - メモ帳
                  • Is Cosine-Similarity of Embeddings Really About Similarity?

                    Cosine-similarity is the cosine of the angle between two vectors, or equivalently the dot product between their normalizations. A popular application is to quantify semantic similarity between high-dimensional objects by applying cosine-similarity to a learned low-dimensional feature embedding. This can work better but sometimes also worse than the unnormalized dot-product between embedded vectors

                    • GitHub - PiMaker/ltcgi: Optimized plug-and-play realtime area lighting using the linearly transformed cosine algorithm for Unity/VRChat.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - PiMaker/ltcgi: Optimized plug-and-play realtime area lighting using the linearly transformed cosine algorithm for Unity/VRChat.
                      • AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ - Qiita

                        AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ論文読みMetricLearningFaceRecognition CVPR2019(Oral)に採択されたAdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだので記録を残します。 図と表は論文から引用しています。 間違い等お気づきの点ありましたらコメントいただけると幸いです。 事前知識 昨今話題のmetric learningの手法です。metric learningについてはこちらが非常にわかりやすくまとめてくださっているのでそちらを参考にしてください。 概要 A

                          AdaCos: Adaptively Scaling Cosine Logits for Effectively Learning Deep Face Representationsを読んだ - Qiita
                        • Equalizing audio with discrete cosine transforms (DCTs) | Apple Developer Documentation

                          Change the frequency response of an audio signal by manipulating frequency-domain data.

                            Equalizing audio with discrete cosine transforms (DCTs) | Apple Developer Documentation
                          • grad - Cosine Gradient in Multiple Color Spaces

                            • Use GPT-3 incorrectly: reduce costs 40x and increase speed by 5x — Cosine

                              Use GPT-3 incorrectly: reduce costs 40x and increase speed by 5x We’ve been using the OpenAI foundational models for a while now at Buildt, they are amazingly powerful and this has been well documented across the internet, particularly with the advent of ChatGPT which has garnered 100x more attention than GPT-3 did before it. However with these models, and their applications to our problem: codeba

                                Use GPT-3 incorrectly: reduce costs 40x and increase speed by 5x — Cosine
                              • 旭川家具 cosine コサイン no.270時計 | MUKU工房

                                どこから見ても丸く優しいフォルムで和やかな空間を作り出します。シンプルなのでどんなお部屋にも馴染みます。

                                • Cosine: The exact moment Jeff Bezos decided not to become a physicist

                                    Cosine: The exact moment Jeff Bezos decided not to become a physicist
                                  • cosine SOFA / コサイン お昼寝ソファ(座布団付き)|【FLYMEe】フライミー

                                    お昼寝ソファ(座布団付き) 日本人が好む床に近い暮らしに馴染むお昼寝ソファ。低い座面はゆったりとしたリラックス感があり、お子様が腰掛ける際にも足が届く高さです。ゆっくりと読書をする時間に、ペットとのリラックスタイムにぴったりのソファです。一人でも誰かと一緒でも、居心地良く過ごすことができるソファ。ゆとりある快適なスペースを演出してくれます。

                                      cosine SOFA / コサイン お昼寝ソファ(座布団付き)|【FLYMEe】フライミー
                                    • cosine KITCHEN STOOL / コサイン 赤い帽子のキッチンスツール|【FLYMEe】フライミー

                                      赤い帽子のキッチンスツール 可愛らしく個性的なスツール。床摺りが3次曲面になり、体の傾きに合わせて動いてくれます。キッチンやリビング、書斎でちょっと腰を掛けるときになどに活躍します。薄い板を何枚も重ねて曲げながら接着する「成型」技術が、曲面を作り上げています。座面は小さいのに掛け心地は抜群で、赤い座面が空間のアクセントになります。持ち運びしやすい軽量設計で、座面裏にはぐるりと指を掛ける手掛けが掘り込んでありますので、女性でも軽く持ち運べます。

                                        cosine KITCHEN STOOL / コサイン 赤い帽子のキッチンスツール|【FLYMEe】フライミー
                                      • Azure OpenAI Service の埋め込み - Azure OpenAI - embeddings and cosine similarity

                                        埋め込みは、機械学習モデルとアルゴリズムで簡単に使用できる特別な形式のデータ表現です。 埋め込みは、テキストの意味論的意味の情報密度の高い表現です。 各埋め込みは浮動小数点数のベクトルであり、ベクトル空間内の 2 つの埋め込み間の距離は、元の形式の 2 つの入力間のセマンティック類似性と相関します。 たとえば、2 つのテキストが似ている場合、それらのベクトル表現も似ているはずです。 Azure Cosmos DB for MongoDB vCore、Azure SQL Database、または Azure Database for PostgreSQL - フレキシブル サーバーなど、Azure データベースにパワー ベクターの類似性検索を埋め込みます。 埋め込みモデル さまざまな Azure OpenAI 埋め込みモデルが、特定のタスクに適するように作成されています。 類似性埋め込みは、

                                          Azure OpenAI Service の埋め込み - Azure OpenAI - embeddings and cosine similarity
                                        • 【jubeat prop】Sol Cosine Job 2【EXC】

                                          【jubeat prop】Sol Cosine Job 2【EXC】 [ゲーム] Twitter:@IWSK_arkrjubeat プレイ動画:mylist/49046702

                                            【jubeat prop】Sol Cosine Job 2【EXC】
                                          • 有限差分法(FDA)とcosine_similarity - Qiita

                                            はじめに こんにちは、ほりきたさくです。 簡単なものですが、何か書こうと思いました。 yamaさんはnishikaのコンペでNegative Cosine Similarity Lossについて言及し、それをlgbmのカスタムロス関数として設定しました。 → yamaさんのnotebook この中で有限差分法とその応用はとても興味深い問題だと思いましたので、これを最初のブログにしたい。 ここでは、この方法がこのコンペでどのように機能するかを論ずに、lgbm損失関数の働き方と有限差分法の応用についてお話ししたいと思います。 有限差分法 Wiki 有限差分法 Finite Difference Analysis 有限差分法(Finite Difference Analysis)は、数値解析や数学的モデリングにおいて一般的に使用される手法の一つです。この手法は、関数や方程式の微分を近似的に計算す

                                              有限差分法(FDA)とcosine_similarity - Qiita
                                            • ベクトルの内積に cosine が現れるのはなぜか|Masaaki Morita

                                              高校数学でベクトルについて学ぶ際に、ベクトル同士の足し算や引き算、ベクトルのスカラー倍あたりまでは図形的に分かりやすく、楽しく学ぶことができたのに、「内積」という謎の掛け算が出てきたところで急につまづいた、という経験のある人はいないでしょうか? 具体的には、二つのベクトル $${\bm{a} , \bm{b}}$$ に対して内積という掛け算を $$ \bm{a} \cdot \bm{b} = | \bm{a} | | \bm{b} | \cos \theta $$ と定義する、という記述がほとんどの教科書で唐突に出てきます。この式中の $${| \bm{a} | , | \bm{b} |}$$ はそれぞれベクトル $${\bm{a} , \bm{b}}$$ の大きさを表し、$${ \theta }$$ はベクトル $${\bm{a} , \bm{b}}$$ のなす角を表します。ベクトル同士

                                                ベクトルの内積に cosine が現れるのはなぜか|Masaaki Morita
                                              1