並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 17 件 / 17件

新着順 人気順

K-meansの検索結果1 - 17 件 / 17件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

K-meansに関するエントリは17件あります。 機械学習データPython などが関連タグです。 人気エントリには 『K-meansのクラスタ数を決めるのにエルボー法を使うのはやめよう、という論文 - 渋谷駅前で働くデータサイエンティストのブログ』などがあります。
  • K-meansのクラスタ数を決めるのにエルボー法を使うのはやめよう、という論文 - 渋谷駅前で働くデータサイエンティストのブログ

    クラスタリングに用いられるK-meansのクラスタ数決定方法については長く議論されてきた歴史があり、このブログでも以前ちょろっと取り上げたことがあります。 で、Twitterを眺めていたらタイムラインに面白い論文が流れてきました。それがこちらです。 タイトルを読んで字の如く「K-meansのクラスタ数を決めるのにエルボー法を使うのはやめろ」という論文なんですね。全体で7ページと非常にコンパクトで読みやすい内容なので、簡単にまとめて紹介してみようと思います。なおいつもながらですが、僕の技術的理解が不足しているが故の誤りなどが混じる可能性がありますので、その際はコメント欄などでご指摘くださると幸いです。 あるtoy dataに対するK-meansの結果 目検に頼らないエルボー法について考える ならば、既存のクラスタ数決定法の中では何を選ぶべきか そもそもK-meansが有効でないケースもあるこ

      K-meansのクラスタ数を決めるのにエルボー法を使うのはやめよう、という論文 - 渋谷駅前で働くデータサイエンティストのブログ
    • k-means法を用いて画像をドット絵風に変換する

      はじめに k-means法を用いて画像を減色しドット絵風に変換するWebアプリを作りました。 (よろしければstarを頂けると幸いです) 変換例 Lenna k=4 75x75 Mandrill k=8 50x50 海中のイラスト k=12 54x30 寿司のイラスト k=16 34x21 方針 k-means法を利用します。処理の流れは以下の通りです。 ランダムにK(定数)個の画素を選び、クラスタ分けに用いる代表色を決定する。 各画素について、最も近い代表色を選びクラスタ分けをする。 各クラスタについて平均色を計算し、新たな代表色とする。 上記の処理でクラスタの割当てが変化しない、または変化量が閾値を下回った場合に収束したと判断して処理を終了する。そうでなければ処理を繰り返す。 実装 画像の読み込み 変換前の画像がoriginalCanvasで、変換後の画像がconvertedCanva

        k-means法を用いて画像をドット絵風に変換する
      • K-meansの発展形アルゴリズムG-meansとX-means

        始めに 最近、M2 Macbook Airを入手したBudoこと荻本です。 この記事では、教師なし学習であるK-meansやその発展形のアルゴリズムについて調査を行ったので、いくつかの手法を紹介したいと思います。 K-meansとは 教師なし学習の手法の一つです。 非階層クラスタリング手法であり、以下のような工程となります。 各点に対しランダムにクラスタリングを行う 各クラスタに割り当てられた点について重心を計算する 各点について上記で計算された重心からの距離を計算し、距離が一番近いクラスタに割り当て直す 2.と3.の工程を、割り当てられるクラスタが変化しなくなるまで行う 図で表現すると下記のように(a)→(b)→(c)→(d)のような順序を辿ってクラスタが収束していくイメージです。 (b)の段階でまず各点に適当にクラスタが割り振られ、その重心が計算されます(重心は赤星で図示)。 (c)で

        • K-Meansクラスタリング scikit-learnを使わずゼロから実装する(Python)||es

          K-Meansは個人的にも好きなアルゴリズムで、教師あり学習を必要とせず、混沌とした中からパターンを見つけ出してくれる可能性があります。 実際、実践で使うとそのような都合の良いデータはほとんどなく、むしろ 仮説を否定する場合に使う方が現実的かもしれません。 自分の場合、顧客のセグメント分けに使うことが多いです。 ステップ 1. ランダムに k 個のデータポイントを初期のセントロイドとして選ぶ。 ステップ 2. トレーニングセット内のデータポイントと k 個のセントロイドの距離(ユークリッド距離)を求める。 ステップ 3. 求めた距離に基づいて、データポイントを一番近いセントロイドに割り当てる。 ステップ 4. 各クラスタグループ内のポイントの平均を取ることでセントロイドの位置を更新する。 ステップ 5. ステップ 2 から 4 をセントロイドが変化しなくなるまで繰り返します。 以下、シンプ

            K-Meansクラスタリング scikit-learnを使わずゼロから実装する(Python)||es
          • RでK-meansの最適なクラスタ数をAIC / BICに基づいて求める - 渋谷駅前で働くデータサイエンティストのブログ

            これはただの備忘録です。既知の話題ばかりが並べられているので、特に新鮮味のない内容である点予めご容赦ください。 クラスタリング手法として広く知られるK-meansは、その簡便さから非常に広汎に使われていますが、一方で「クラスタ数を恣意的に決め打ちせざるを得ない」という難点があり、「最適なクラスタ数をどうやって決めるか」という課題が長年に渡ってあります。この課題の解決策についてちょっと調べてみたので、以下にまとめてみました。 K-meansにおける「最適なクラスタ数の決め方」として、こちらの記事では伝統的な手法ということで エルボー法 シルエット分析 X-means(K-meansに情報量規準を適用して再帰的に最適クラスタ数を決める) の3種類が紹介されています。これらは僕も以前から聞いたことがあるもので、実際K-meansの実装の中には最初からエルボー法などを含んでいるものもあったりします

              RでK-meansの最適なクラスタ数をAIC / BICに基づいて求める - 渋谷駅前で働くデータサイエンティストのブログ
            • K-Meansクラスタリングによる画像の減色 - Pythonでいろいろやってみる

              K-Meansクラスタリングは、与えられたデータを自動的に分類するアルゴリズムであるクラスタリングの一種で、クラスタの平均を用い、与えられたクラスタ数k個に分類する手法です。(Wikipedia >> k平均法) cv2.kmeans()を用いるとK-Meansクラスタリングが簡単に実装できます。これを画像データに用いてBGRのチャンネルについてクラスタリングし、各クラスタに含まれる画素を、各クラスタの中心値に変換することで減色できます。 OpenCV >> K-Means Clustering in OpenCV 記載のコードをほぼそのまま使用しています。 関連記事 ルックアップテーブルによる画像の減色 環境 windows10 home Anaconda 3/ jupyter notebook 5.6.0 Python 3.7.0 OpenCV 4.0.0 準備 画像ファイルはフリー写

                K-Meansクラスタリングによる画像の減色 - Pythonでいろいろやってみる
              • k-meansとk-means++を視覚的に理解する~Pythonにてスクラッチから~ - 医療職からデータサイエンティストへ

                k-means(k平均法)は教師なし学習の中でもとても有名なアルゴリズムの一つです。例えば、顧客のデータから顧客を購買傾向によってグループ分けしたり、商品の特性からいくつかのグループに分けたりと使用法は様々です。 そんなk-measですが、実は中学生でも知っている点と点の間の距離を使うだけのアルゴリズムで成り立っているので、簡単に実装することができます。 今回は、k-means とk-meansの弱点を克服したk-means++をPythonを使って実装していきます。 k-meansの仕組み k-meansの問題点とk-means++ クラスの数を決めるエルボー法 scikit-learnを使ったk-meansとk-means++ まとめ 参考 k-meansの仕組み 今回は2つの変数からサンプルをクラスタリングすることを想定してみましょう。グラフはこんな感じになります。 import n

                  k-meansとk-means++を視覚的に理解する~Pythonにてスクラッチから~ - 医療職からデータサイエンティストへ
                • Stop using the elbow criterion for k-means and how to choose the number of clusters instead

                  A major challenge when using k-means clustering often is how to choose the parameter k, the number of clusters. In this letter, we want to point out that it is very easy to draw poor conclusions from a common heuristic, the "elbow method". Better alternatives have been known in literature for a long time, and we want to draw attention to some of these easy to use options, that often perform better

                  • scikit-learnのk-meansでirisデータをクラスタリングしてみよう!【サンプルコード有り】 | 自動化ラボっ!

                    はじめに Pythonの機械学習モジュールであるscikit-learnは数多くの機械学習アルゴリズムをカンタンに使うことができることがわかりました。これまでは本ブログで紹介したのはいわゆる「教師あり学習」の問題が多かったのですが、今回は「教師なし」のアルゴリズムであるクラスタリングを行うこととしましょう。 ちなみに、教師あり、なしとはよく言いますが概要を述べると、教師あり学習は 教師あり学習(きょうしありがくしゅう, 英: Supervised learning)とは、機械学習の手法の一つである。事前に与えられたデータをいわば「例題(=先生からの助言)」とみなして、それをガイドに学習(=データへの何らかのフィッティング)を行うところからこの名がある。 出典: フリー百科事典『ウィキペディア(Wikipedia)』 これに対して、教師なし学習は 教師なし学習(きょうしなしがくしゅう, 英:

                      scikit-learnのk-meansでirisデータをクラスタリングしてみよう!【サンプルコード有り】 | 自動化ラボっ!
                    • K-Means Clustering for Unsupervised Machine Learning

                      K-means clustering is a type of unsupervised learning when we have unlabeled data (i.e., data without defined categories or groups). Clustering refers to a collection of data points based on specific similarities. K-Means Algorithm K-means aims to find groups in the data, with the number of groups represented by the variable K. Based on the provided features, the algorithm works iteratively to ass

                        K-Means Clustering for Unsupervised Machine Learning
                      • kaz / AI Academy on Twitter: "「筑波大学オープンコースウェア」を活用すると機械学習概論から単回帰・重回帰、SVM、k-means,PCA,ニューラルネットワーク,CNN,RNN,GANなどが全て「無料」で学べます。 上記20本が講義動画で登録なしで学べます。… https://t.co/qoD0vhifGz"

                        「筑波大学オープンコースウェア」を活用すると機械学習概論から単回帰・重回帰、SVM、k-means,PCA,ニューラルネットワーク,CNN,RNN,GANなどが全て「無料」で学べます。 上記20本が講義動画で登録なしで学べます。… https://t.co/qoD0vhifGz

                          kaz / AI Academy on Twitter: "「筑波大学オープンコースウェア」を活用すると機械学習概論から単回帰・重回帰、SVM、k-means,PCA,ニューラルネットワーク,CNN,RNN,GANなどが全て「無料」で学べます。 上記20本が講義動画で登録なしで学べます。… https://t.co/qoD0vhifGz"
                        • k-means++を理解する - Qiita

                          はじめに 以前k-meansに関する記事を投稿しました。 k-meansは初期値依存という問題を抱えているため、その克服を目指したk-means++というアルゴリズムが開発されています。 今回はk-means++について勉強した内容をまとめました。 参考 k-means++の理解に当たって下記を参考にさせていただきました。 言語処理のための機械学習入門 (自然言語処理シリーズ) 高村 大也 (著), 奥村 学 (監修) 出版社; コロナ社 機械学習のエッセンス 加藤公一(著) 出版社; SBクリエイティブ株式会社 k-means++法 - Wikipedia k-means++について k-meansの復習 k-meansの概要 k-meansは、まずデータを適当なクラスタに分けた後、クラスタの平均を用いてうまい具合にデータがわかれるように調整させていくアルゴリズムです。任意の指定のk個の

                            k-means++を理解する - Qiita
                          • 機械学習入門!クラスタリングの解説とPythonによるk-means実装 | 侍エンジニアブログ

                            クラスタリングとは、機械学習の目的別の分類の一つです。教師あり学習では教師データ(ラベルとデータのセットがたくさんあるもの)から、データに対するラベル付の法則性を見つけていました。 これに対して、クラスタリングは教師なし学習です。例えば、以下のようなデータ(このデータはiris datasetの一部です)があるとします。 水色の線がクラスタを表していると思ってください。このクラスタはデータから、ラベルを気にせずにそれらしいまとまりをつけてみたものです。 このようにクラスタリングは、ラベルのない”ただのデータ”から、データのクラスター(データのまとまり)をいくつか見つけます。または、ラベルがあるデータだとしても、ラベルを使わずにクラスタをいくつか見つけます。 その結果出てくるクラスタはクラス分類した場合とは異なったデータ構成になっていることが多いです。 クラスタリングとクラス分類 クラスタリ

                              機械学習入門!クラスタリングの解説とPythonによるk-means実装 | 侍エンジニアブログ
                            • OpenCV - k 平均法 (k-means) を使い、画像の代表色を取得する方法 - Pynote

                              概要 OpenCV で k 平均法 (k-means) を使い、画像の代表色を取得する方法を紹介する。 以下の用途で利用できる。 画像で使われている主な色を取得する。 画像を見た目にあまり影響がないように減色する。(例: 1000色で表されている画像を8色で表現する。) 概要 cv2.kmeans criteria attempts retval サンプルコード k 平均法で代表色を計算する。 画像の各画素をクラスタの色で置き換える。(減色処理) cv2.kmeans retval, bestLabels, centers = cv2.kmeans( data, K, bestLabels, criteria, attempts, flags[, centers]) 引数 data: 入力データ。形状が (M, N) の numpy 配列。 K: クラスタ数 criteria: アルゴリズ

                                OpenCV - k 平均法 (k-means) を使い、画像の代表色を取得する方法 - Pynote
                              • Create a k-means model to cluster London bicycle hires dataset  |  BigQuery  |  Google Cloud

                                Send feedback Create a k-means model to cluster London bicycle hires dataset Stay organized with collections Save and categorize content based on your preferences. BigQuery ML supports unsupervised learning . You can apply the k-means algorithm to group your data into clusters. Unlike supervised machine learning, which is about predictive analytics, unsupervised learning is about descriptive analy

                                  Create a k-means model to cluster London bicycle hires dataset  |  BigQuery  |  Google Cloud
                                • k-means法を使用したクラスタリングによるデータ分析(python)(【高等学校情報科 情報Ⅱ】教員研修用教材) - Qiita

                                  はじめに 非階層型クラスタリングの手法の一つに、k-means法(k平均法)があります。 教材の「第3章 情報とデータサイエンス 後半 学習16.クラスタリングによる分類」の記述がわかりやすいので引用します。 k-means法では,次の手順によってクラスタリングする。 1) あらかじめ分割するクラスタ数を決めておき,ランダムに代表点(セントロイド)を決める。 2) データと各代表点の距離を求め,最も近い代表点のクラスタに分類する。 3) クラスタごとの平均を求め,新しい代表点とする。 4) 代表点の位置が変わっていたら2に戻る。変化がなければ分類終了となる。 1)によりランダムに代表点を決めることによって,結果が大きく異なり,適切なクラスタリングとな らない場合もある。何回か繰り返して分析をしたり,k-means++法を用いたりすることにより改善することができる。 1’)データの中からラン

                                    k-means法を使用したクラスタリングによるデータ分析(python)(【高等学校情報科 情報Ⅱ】教員研修用教材) - Qiita
                                  • k-means法を理解する - Qiita

                                    はじめに k-means法について勉強した内容をまとめました。 最もベーシックなクラスタリングアルゴリズムです。 参考 k-means法の理解に当たって下記を参考にさせていただきました。 言語処理のための機械学習入門 (自然言語処理シリーズ) 高村 大也 (著), 奥村 学 (監修) 出版社; コロナ社 機械学習のエッセンス 加藤公一(著) 出版社; SBクリエイティブ株式会社 k-means法概要 k-means法とは何か k-means法は、まずデータを適当なクラスタに分けた後、クラスタの平均を用いてうまい具合にデータがわかれるように調整させていくアルゴリズムです。任意の指定のk個のクラスタを作成するアルゴリズムであることから、k-means法(k点平均法と呼ばれています。) k-means法のアルゴリズム k-mean法は具体的には下記のような工程を辿ります。 各点$x_{i}$に対

                                      k-means法を理解する - Qiita
                                    1

                                    新着記事