並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 240件

新着順 人気順

seabornの検索結果121 - 160 件 / 240件

  • Pythonによるデータ分析入門 第3版

    NumPy、SciPy、pandas、Matplotlib、Jupyterをはじめ、高機能で使いやすい数学・科学計算用ライブラリが充実しているPythonは、科学計算、統計解析、機械学習のみならず、金融や経済分野でも広く利用されています。本書はPythonの代表的なデータ分析ツール、pandasの開発者Wes McKinneyによる、データ分析を行うための基本を網羅しています。すべてのサンプルコードはダウンロード可能で、Jupyter Notebookで対話的に試し、実際に手を動かしながら知識を確実なものにすることが可能です。pandas 2.0に対応した待望の改訂版です。 まえがき 1章 はじめに 1.1 はじめに 1.1.1 どういうデータを扱うのか 1.2 なぜPythonをデータ分析に使うのか 1.2.1 「糊(グルー)」としてのPython 1.2.2 「2つの言語」問題を解決す

      Pythonによるデータ分析入門 第3版
    • LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介 - Algomatic Tech Blog

      こんにちは。Algomatic NEO(x) カンパニー機械学習エンジニアの宮脇(@catshun_)です。 本記事ではブラウザやモバイル画面を操作する LLM エージェントとその周辺技術について超ざっくりと紹介します。 社内に向けたキャッチアップ資料として作成しており、加筆修正する可能性がありますが、本記事を読んだ方の議論のネタ程度になってくれれば幸いです。 以前 AI ソフトウェアエンジニアについて紹介しているので、こちらもご覧いただけたら幸いです。 おことわり 本記事では対象とする研究棟の 詳細な解説は含みません。詳細は元の論文を参照ください。 不十分また不適切な言及内容がありましたらご指摘いただけますと幸いです。 プロダクト等の利用時は 必ずライセンスや利用規約を参照して下さい。 本記事の目次 Google I/O '24 での Gemini Nano × Android の発表

        LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介 - Algomatic Tech Blog
      • 【大卒?院卒? 結論ホイ卒系だから】元光通信の営業マンがweb開発&データ分析で起業後、1年経過して伝えたいこと。 - Qiita

        【大卒?院卒? 結論ホイ卒系だから】元光通信の営業マンがweb開発&データ分析で起業後、1年経過して伝えたいこと。Python起業転職ホイ卒 はじめに 押忍! ということで、ホイ卒系エンジニアな僕の過去〜現在をメモも兼ねて書いていく。 光通信を知らない方は一年前の記事でも。 前回記事リンク そして、光通信によくいる人達の言葉遣いで記事を書いていくことにする。 ※大げさな表現にしているので、記事にある言葉遣いとかが全部正しいわけじゃない ※「テメー」とか書くけど許してねw ※「光の戦士」とは、光通信の営業マンのこと ※「ゼロアポ」とは, その日の営業成約、商談がゼロ件ってこと 言葉は、アポイント(商談、成約)がゼロ件っていうところから来ている .......わかっている。 わかっているさ。 光通信の言葉遣いなんぞ誰もしらんことを。 光通信の営業マンはqiitaを見ない ↓↓ エンジニア、プロ

          【大卒?院卒? 結論ホイ卒系だから】元光通信の営業マンがweb開発&データ分析で起業後、1年経過して伝えたいこと。 - Qiita
        • SageMaker Studio のAutopilot で赤ワインデータの品質分類を試してみた | DevelopersIO

          はじめに おはようございます、もきゅりんです。 皆さん、SageMaker 使ってますか? そして、SageMaker と SageMaker Studio の違いを知ってますか? はい、自分はよく知りませんでした! ということで、 SageMaker Studio を使う機会があったため、調べながら使ってみました。 なお、表題のワインデータの結果だけが気になるだけの方は、目次から 結果 に飛んで頂ければと思います。 どこで利用できるのか? 現状は以下リージョンで利用できます。 米国東部 (オハイオ) us-east-2 米国東部 (バージニア北部) us-east-1 米国西部 (オレゴン北部) us-west-2 中国 (北京) cn-north-1 中国 (寧夏) cn-northwest-1 欧州 (アイルランド) eu-west-1 ので、今回はバージニア北部で対応します。 Sa

            SageMaker Studio のAutopilot で赤ワインデータの品質分類を試してみた | DevelopersIO
          • 書籍『Pythonでデータを視覚化する 』の紹介|hima2b4

            20230524:dtreeviz の実行エラーを回避する方法を追加 20230304:PairPlot の実行エラーを回避する方法を追加 はじめに ご縁あり、『 Pythonでデータを視覚化する 』という書籍を執筆させていただきました。 当記事は、本書の雰囲気をつかんでいただくため、意識したこと、特徴、できること等の概要をまとめたものです。 どんな本? 1.ChatGPTに尋ねてみました (笑) いきなり乱暴なアプローチで、すいません。 どうしてもChatGPTに尋ねてみたかったのです。お付き合いください。 ChatGPTへの質問 「 Pythonでデータを視覚化する」という本のタイトルから、期待される内容を挙げてください。 ChatGPTからの回答: Pythonでグラフやチャートなどでデータを視覚化する方法 データ可視化ライブラリの使い方 データ可視化を利用したデータ分析の技法 機械

              書籍『Pythonでデータを視覚化する 』の紹介|hima2b4
            • 機械学習モデルの最適化をH2Oにおまかせしてみる - Qiita

              はじめに 先日、以下の記事を読ませていただきました。 AutoMLって、こんなにあるんですね・・・。 早速、実行したことのなかったAutoMLのひとつ、H2O を試してみることにしました。 H2O は、”ソースコードを1行も書くことなくGUIのみですべての機械学習フローを実現” ってのが王道の利用スタイルようですが、本記事では、GUIを利用せず、Pythonで実装します。 いくつかのデータセット(分類や回帰)を読み込めるようにセットし、読込んだデータを訓練データとテストデータに分割してH2O に与えます。 その後、H2O を実行し、モデル学習やモデル評価を行います。 実行はノーコードです。いくつかの設定をドロップダウンとスライドバーで指定するだけです。 実行条件など -Google colabで実行 -任意のデータセットとsklearn等のデータセットを読み出せるようにしています。 実行

                機械学習モデルの最適化をH2Oにおまかせしてみる - Qiita
              • 確率的プログラミング言語 pyro 基本 - HELLO CYBERNETICS

                はじめに Pyro primitives 確率変数の実現値 sample 条件付き独立のベクトル化 plate 階層モデル 変分パラメータを扱う param poutine モデルの様子を把握する trace 条件付き分布の作成 condition まとめと変分推論の例 はじめに 本当はTensorFlow2が世の中で使われるようになって、情報も増えるのが一番嬉しいのですが、ちょっと周囲の状況も含めてPyTorch続投の兆しが強いため、確率的プログラミング言語としてPyroを選択する可能性も出てきました。というわけでPyroの記事です。 https://pyro.ai/ Pyro PyTorchをバックエンドとした確率的プログラミング言語(PPL)です。PPLの名に恥じないくらい、確率モデリングが容易に可能で、TensorFlow Probabilityほど剥き出しのTensorをアレコレ

                  確率的プログラミング言語 pyro 基本 - HELLO CYBERNETICS
                • TensorFlow Probability でカルマンフィルター(観測値から内部状態を探る) - HELLO CYBERNETICS

                  はじめに カルマンフィルタの意義 TFPでのカルマンフィルタ モジュール データの生成 TFPで線形状態空間モデルを作る カルマンフィルタの実行 追加実験 追加実験1:状態と観測の次元が異なるケース 追加実験2: 不可観測系 最後に はじめに カルマンフィルタを解説する記事はたくさんあります。 詳しい理論や、細かい実装を知りたい場合は下記の記事などを参考にすると良いでしょう。 www.hellocybernetics.tech www.hellocybernetics.tech qiita.com tajimarobotics.com 今回はTFPのdistributionsモジュールの中にある、比較的高レベルなAPIであるLinearGaussianStateSpaceModelというものを使い方の備忘録と、カルマンフィルタの意義の軽い説明です。特に状態観測器としての側面を理解することに

                    TensorFlow Probability でカルマンフィルター(観測値から内部状態を探る) - HELLO CYBERNETICS
                  • LLM・プロンプトの評価・テストフレームワークについてまとめてみた

                    はじめに ご存知の通り大LLM時代なわけで、つよつよな方からアフィリ記事までこぞってどうやってLLMで良い出力を得るかまとめております。そしてそのテクニックがプロンプトエンジニアリングとして体系化されつつあります。ただし、エンプラでLLMを真面目に使おうとすると、プロンプトの管理やLLMごとの管理、レスポンスタイムの計測など様々な評価を継続的にやる必要があります。従来のデータサイエンスでも結局評価や計測が後々重要になったきたことを考えると必然かもしれませんが、そこらへんをまとめた日本語の記事がなかったので、アドベントカレンダーというチャンスを使ってまとめてみます! そんなわけで、この記事ではまだそこまで盛り上がってはないが、確実に重要なLLMの評価の基本的な流れデモも交えて簡単な評価フレームワークの利用例を紹介していこうと思います! ただしまだ黎明期で今後主流になる方法論も変わると思うのと

                      LLM・プロンプトの評価・テストフレームワークについてまとめてみた
                    • 【2023年版】Google ColabでSQLを使う【DuckDB, JupySQL】 - Qiita

                      0. 使うもの JupySQLとDuckDBを使う。 JupySQLは以前紹介したipython-sqlと似たようなライブラリだが、現在あまり更新されていないipython-sqlに対して、(i) バグを修正し、(ii) 機能を追加しているものである。基本的な使い方はipython-sqlと変わらない。 DuckDBはSQLiteのOLAP版という立ち位置らしい。お手軽に使え、分析用途に強いDBだと理解している1。 ということで、実際に簡単に使う方法を見ていく。 1. 諸々準備 !pip install jupysql duckdb-engine # データ(csvファイル)のダウンロード !wget https://raw.githubusercontent.com/mwaskom/seaborn-data/master/penguins.csv

                        【2023年版】Google ColabでSQLを使う【DuckDB, JupySQL】 - Qiita
                      • 【プログラマー必見】知らないと大損!Python(パイソン)チートシート20選

                        RankRED RankRed is a place where you can find a lot of interesting and inspiring stuff about science and technology, internet, programming tools and plugins, robots, machines and high tech gadgets, and much more. 1989年にGuido van Rossumが提唱したweekend hobby projectにおいて、Pythonは最も使用されているレベルの高いプログラミング言語として周知されています。Githubで2番目に人気の高いJavaですが、YouTubeやGoogle、Dropbox、Quora、Instagramなど定番のウェブサイトはPythonを使用しています。人工

                          【プログラマー必見】知らないと大損!Python(パイソン)チートシート20選 
                        • Gemini Advancedでデータ分析をやってみた - GMOインターネットグループ グループ研究開発本部

                          TL;DR Geminiの有料プランGemini Advancedでは、5/14から100万トークンもの入力に対応したGemini 1.5 Proを提供開始、更に5/21からスプレッドシートをアップロードしてのデータ分析や可視化が可能になりました。これはPythonのコードを生成して実行するする機能です。 データ分析の性能としてはGemini AdvancedはChatGPT-4oとほぼ同等の性能でどんぐりの背比べ甲乙が付け難いです。Geminiの場合、Google Sheetsなどと連携でき、データの取り込みやエクスポートが容易です。一方のChatGPTは、可視化したグラフがより見やすい印象です。 しかし、Gemini AdvancedもChatGPT-4oも指示が曖昧では適切な集計ができないなど、データサイエンティストの視点から見ると、生成AIに任せきりでは不安な点が多く見受けられます

                            Gemini Advancedでデータ分析をやってみた - GMOインターネットグループ グループ研究開発本部
                          • リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に - Qiita

                            はじめに 前回の記事で重回帰分析の導入をしてみたので、今回はその続きということで、2つ同時にやってみたいと思います。 ベクトルの微分公式については下記のブログが参考になります。 もしこの記事がお役に立てた時はQiitaのイイねボタンを押していただけると励みになります。 参考記事 「ベクトルで微分・行列で微分」公式まとめ 重回帰分析 リッジ回帰について考える際に、重回帰分析の理解はマストになるのでここでも見ていこうと思います。式変形については、前回の記事で詳しく導入したので少しだけ端折っていきます。 準備 説明変数$x_1, x_2, x_3, \cdots, x_m$を$\boldsymbol{x}$($x$のベクトル)とする 予測値を$\hat{y}$とする($\hat{y}$はスカラー) 回帰係数を$w_1, w_2, w_3, \cdots, w_m$を$\boldsymbol{w}

                              リッジ回帰とラッソ回帰の理論と実装を初めから丁寧に - Qiita
                            • Pythonで好きな作家の頻出単語ランキングを作る - Qiita

                              はじめに 夏目漱石、芥川龍之介、川端康成、太宰治、三島由紀夫・・・ これら日本を代表する作家たちが、小説に最も使用した単語は一体何なのでしょうか? 今回は名詞・動詞・形容詞それぞれについて、Pythonを使って分析してみました。 この記事で学べること テキストマイニングの進め方、考え方 Pythonによるスクレイピング MeCabによる形態素解析 Seabornによるグラフの描画 etc... 環境 Python 3.7.4 Anaconda 4.8.3 Jupyter notebook 分析 それでは、早速分析していきましょう。 データ集め 今回使用する文章データは「青空文庫」様より拝借します。 まずは一例として夏目漱石のデータを取得してみます。 夏目漱石の作品一覧は以下のURLに収められています。 このURLの「148」が夏目漱石の作家IDとなります。 つまり、このIDの部分を変えれば

                                Pythonで好きな作家の頻出単語ランキングを作る - Qiita
                              • Scikit-learn でロジスティック回帰(クラス分類編) - Qiita

                                はじめに ロジスティック回帰は、説明変数の情報にもとづいて データがどのクラスに属するかを予測・分類する(例:ある顧客が商品を買うか買わないかを識別する) 注目している出来事が発生する確率を予測する(例:ある顧客が何%の確率で商品を買うか予測する) ために利用されるモデルです。 この記事では、Scikit-learnライブラリを使い、ロジスティック回帰によりクラス分類を行う方法を備忘録として書いておきます。 Scikit-learn について Scikit-learnは、Pythonの機械学習ライブラリの一つです。 公式ドキュメント:http://scikit-learn.org/stable/index.html ロジスティック回帰について ロジスティック回帰は、分類のためのアルゴリズムです(例:電子機器を故障するクラス or 故障しないクラスに分ける)。単純なアルゴリズムなので実装しや

                                  Scikit-learn でロジスティック回帰(クラス分類編) - Qiita
                                • 【Anacondaの使い方】よく使うcondaコマンド一覧【チートシート】

                                  Pythonを使う方で、Anacondaを使う方は多いのではないでしょうか? Anacondaとは、データサイエンス用のPythonパッケージをまとめたPythonディストリビューションです。Anacondaをインストールすると、「Python本体」+ 「データ分析に必要なパッケージ」がインストールされるので、面倒な環境構築を行う手間が省けます! Anacondaをインストールするとcondaコマンドが使えるようになります。このcondaコマンドを使うとことで、パッケージのインストールや仮想環境の構築ができるようになり、とても便利です。 とても便利なcondaコマンドですが、色々なことができるが故に、使い方を全てを覚えるのがとても大変です。 そこで今回は、結構頻繁につかう(と個人的に思っている)condaコマンドを紹介していきたいと思いますので、辞書代わりに見てください! Anaconda

                                    【Anacondaの使い方】よく使うcondaコマンド一覧【チートシート】
                                  • Pythonでちゃんと統計・確率の基礎をやってみた(確率編1/3) - Qiita

                                    はじめに 以下の書籍を参考にしながら,統計の基礎を学び直した軌跡,確率編1/3です. この記事は5部構成の2つ目になっています.以下も参照ください. 準備〜データ編・・・投稿済み 確率編1・・・この記事 確率編2・・・投稿済み 確率編3・・・まだ 推測編・・・まだ この記事を書いた動機,注意点,使用している技術,記事の構成,準備については準備〜データ編に掲載されています. これは主観でしかないのですが,エンジニアにも馴染みのある「データ」と比べて「確率」は扱われる機会が少なく,理解のハードルが高いかと思います.引き続き書籍を参考にしながら,理解を助けるために補足したり,独断で省略している部分もありますので,書籍に沿って進めたい方は書籍を購入ください! また,最初は「確率編」として3部構成を考えていたのですが,確率の基本部分を厚くしたため,以下のように確率編を3つに分けることにしました. 確

                                      Pythonでちゃんと統計・確率の基礎をやってみた(確率編1/3) - Qiita
                                    • ChatGPT のCode interpreterまとめ(更新中)

                                      2023年7月7日にアナンウンスがあり、Interpreter 機能がChatGPT Plusユーザに順次開放される コードの実行と、アップロードしたファイルへのアクセスが可能。 Pythonの環境 この環境は、OpenAIが提供する対話型のPythonコード実行環境です。具体的な特性は以下の通りです: Python 3.7+を使用しています。 機械学習やデータ分析に使われる主要なライブラリ(pandas、numpy、scikit-learnなど)がプリインストールされています。 インターネットアクセスが無効化されています。したがって、新たなパッケージのインストールや外部APIへのリクエストなどが行えません。 状態はセッション間で保持されません。つまり、セッションが終了すると、それまでの変数の値や計算結果は全てクリアされます。 ユーザーがアップロードしたファイルやユーザーへのファイルのダウ

                                        ChatGPT のCode interpreterまとめ(更新中)
                                      • 機械学習モデルの構築と最適化: Pythonで学ぶ実践的なアプローチ - Python転職初心者向けエンジニアリングブログ

                                        機械学習モデルの構築と最適化は、データの理解からモデルのトレーニング、評価、最適化まで包括的なプロセスです。本記事では、Pythonを用いた機械学習モデルの実践的なアプローチに焦点を当て、具体的な手法とコードを交えて解説します。 1. データの理解と前処理 1.1 データの読み込みと可視化 まずはデータの理解と可視化から始めましょう。データセットによっては、特徴量の分布や相関関係を把握することが重要です。 import pandas as pd import matplotlib.pyplot as plt import seaborn as sns # データの読み込み data = pd.read_csv("your_dataset.csv") # データの概要を表示 print(data.info()) # 数値特徴量の統計情報を表示 print(data.describe()) #

                                          機械学習モデルの構築と最適化: Pythonで学ぶ実践的なアプローチ - Python転職初心者向けエンジニアリングブログ
                                        • Mastering Customer Segmentation with LLM

                                          Let’s see a brief description of the columns of our dataset: age (numeric)job : type of job (categorical: “admin.” ,”unknown”,”unemployed”, ”management”, ”housemaid”, ”entrepreneur”, ”student”, “blue-collar”, ”self-employed”, ”retired”, ”technician”, ”services”)marital : marital status (categorical: “married”,”divorced”,”single”; note: “divorced” means divorced or widowed)education (categorical: “

                                            Mastering Customer Segmentation with LLM
                                          • GitHub Copilot overview

                                            Version 1.92 is now available! Read about the new features and fixes from July. GitHub Copilot in VS Code The GitHub Copilot extension is an AI pair programmer tool that helps you write code faster and smarter. You can use the Copilot extension in Visual Studio Code to generate code, learn from the code it generates, and even configure your editor. With GitHub Copilot in VS Code you can: Get inlin

                                              GitHub Copilot overview
                                            • 同じ基本統計量・異なる散布図のデータセットを焼きなまし法で生成する

                                              Anscombeの例¶平均や標準偏差、相関係数といった基本統計量は重要ですが、散布図の外観が全く異なっていてもこれらの基本統計量が(ほぼ)同一となることは起こりえます。このような例としてAnscombeの例 (Anscombe's quartet) が有名です。Seabornを用いると、このAnscombeの4つの例は簡単に描画することができます。 Anscombe’s quartet — seaborn 0.10.1 documentation import seaborn as sns sns.set(style="ticks") # Load the example dataset for Anscombe's quartet df = sns.load_dataset("anscombe") # Show the results of a linear regression wit

                                              • 回帰直線をPythonで引きたいならどうする? - Qiita

                                                はじめに 問題 回帰直線をPythonで引きたいならどうする? notebookを使用している 方針・解法 matplotlibとseabornを使おう! 解答例 import seaborn as sns %matplotlib inline width = 12 height = 10 plt.figure(figsize=(width, height)) # 縦と横の大きさを決める # 実際に線を引く sns.regplot(x="hogehoge", y="hogehoge", data=あなたが分析したいデータ) plt.ylim(0,) # Xの下限を0に設定する

                                                  回帰直線をPythonで引きたいならどうする? - Qiita
                                                • Python: Polars で各種エンコーダを実装したライブラリ「Shirokumas」を作った - CUBE SUGAR CONTAINER

                                                  最近は Polars が気に入っていて、主にプライベートで使っている。 ただ、エコシステムという観点では Pandas に比べて発展途上の段階にあると思う。 そこで、今回は発展の一助として「Shirokumas」というライブラリを作ってみた。 github.com どんなライブラリかというと、現時点の機能では Pandas の category_encoders 1 のサブセットに相当する。 より具体的には、scikit-learn のスタイルで書かれた特徴量抽出をするための基本的なエンコーダを実装してある。 特徴としては、同じ処理を完了するまでにかかる時間が短いこと。 Pandas のエコシステムで使われるフレームワークとパフォーマンスを比較したグラフを以下に示す。 グラフから、比較対象の概ね 1/10 以下の時間で処理を完了できることが分かる。 詳細については、このエントリの後半に記述

                                                    Python: Polars で各種エンコーダを実装したライブラリ「Shirokumas」を作った - CUBE SUGAR CONTAINER
                                                  • Matplotlib(Seaborn)の基本的な使い方|Hi-Roto's Note

                                                    最近,研究活動(おもに実験)で得たデータを計算したり,可視化するのに使っているPython。 可視化(グラフ作成)に使うMatplotlib(Seaborn)の使い方をすぐ忘れてしまうので,自分のために書き留めておこうと思う。 ごく基本的な使い方モジュールのインポート import numpy as np import matplotlib.pyplot as plt import seaborn as snsデータ準備 x = np.linspace(1,100,100) y = x**2一番簡単なプロット方法plt.plot(x,y, label = 'y = x^2') plt.legend() オブジェクト指向な書き方(その1:figとaxを別々に指定)figureを作り,次にその中のグラフの外枠(軸メモリなど)となるAxesを設定後,グラフを描画する方法。以下では,figとaxを

                                                      Matplotlib(Seaborn)の基本的な使い方|Hi-Roto's Note
                                                    • pandasで指定の列に1行ずつ関数を適用するapply+lambdaの使い方 | ゆるD

                                                      やりたいことの確認 pandas.DataFrameから、ある特定の列を選択し、その列(pandas.Series)に対して何かしらの関数を適用させたい。 この記事のサンプルデータセットはアヤメ(iris)の統計データを使用します。 irisデータの読み込み import numpy as np import pandas as pd import seaborn as sns #=> pip install seaborn df = sns.load_dataset('iris') データのちら見 df.head() 開発環境を確認する 開発環境 OS:macOS Mojava Python:3.6.7 Pandas:0.24.2 Jupyter Notebook:4.4.0 pandas.Series.apply 各列に関数を適用させたい場合、pandas.Seriesのapplyメソ

                                                        pandasで指定の列に1行ずつ関数を適用するapply+lambdaの使い方 | ゆるD
                                                      • Jupyter Notebook Viewer

                                                        Fudan CCDC model (time delay dynamical system): $$ \begin{aligned} \frac{\mathrm{d} I}{\mathrm{d} t} &= r I_{0}(t) \\ \frac{\mathrm{d} J}{\mathrm{d} t} &= r \int_{-\infty}^{t} f_{4}(t-s) I_{0}(s) \mathrm{d} s \\ \frac{\mathrm{d} G}{\mathrm{d} t} &= \ell(t) \left[ \int_{-\infty}^{t} f_{2}(t-s) I_{0}(s) d s - \int_{-\infty}^{t} f_{4}(t-s) I_{0}(s) \mathrm{d} s \right] \\ \end{aligned} $$ $I(t)$: the

                                                        • 【Python】Seabornでグラフを重ねてプロットする方法

                                                          PythonのSeabornライブラリでグラフを作っている方比較するデータの表示方法を探している方大学生や研究生の方でグラフの作り方を覚えたい方 こんにちは.けんゆー(@kenyu0501_)です. 今日は,PythonのSeabornライブラリでグラフを作成するときに,「二つ以上のグラフを一枚の図の中に貼り付けて比較する方法」を紹介します. Seabornは,Pythonの可視化ツールの一つで,matplotlibをベースにしたライブラリです. これを使えるようになると,おそらく他のグラフ作成ツールはほとんど必要なくなると思います. 大学生や,データを扱っている方でグラフをよく作成するという人にはオススメです. 例題を使ってデータを比較するやっていることを分かり易くするため,以下のような例題を扱って,それをグラフ化していきます. 例題:Aさん,Bさん,Cさんが3種類のテストを5回ずつ行っ

                                                          • 【初心者向け】NumeraiのHPの見方+サブミット+便利リンク集 - Qiita

                                                            はじめに はじめまして。 tit_BTCQASH と申します。(https://twitter.com/tit_BTCQASH Numeraiというプロジェクトでわかりにくい点とその解説、予測結果のサブミットまでを一気通貫して紹介します。(https://numer.ai/tournament Numeraiは株価の予測結果をもとに運用するヘッジファンドの手伝いをするプロジェクトです。 私たちは自分でデータを用意する必要はなく、チームから与えられたデータを最適化し、その予測結果を提出することが求められます。 (日本ではblog_UKIさんの記事 機械学習による株価予測 はじめようNumerai https://qiita.com/blog_UKI/items/fb401725288e58c92bd6 が有名ですので、詳細はそちらをご一読ください。) さて、本記事ではNumeraiのホームペ

                                                              【初心者向け】NumeraiのHPの見方+サブミット+便利リンク集 - Qiita
                                                            • サイトマップ

                                                              金子研究室ホームページサイトマップ. 金子研究室ホームページでは,約2000ページを公開している.ページは,データベース関連技術,データの扱い,インストール,設定,利用,プログラミング,サポートページ,連絡先,業績に分けて構成している.サイトマップでは,ホームページ内の全てのページについてのサイトマップを示している. 【サイト構成】 人工知能 データベース 3次元,地図 プログラミング 情報工学全般 インストール 連絡先,活動,その他 金子邦彦研究室 ▶ サイトマップ ▶ サイト内検索 ▶ アクセスログ(直近28日分), Google Search Console ▶ まとめページ(目次) ▶ 人工知能,データサイエンス,データベース,3次元のまとめ ▶ Windows のまとめ ▶ Ubuntu の使い方 ▶ Python のまとめ(Google Colaboratory を含む) ▶

                                                              • 機械学習で「メリットが分かりづらい」と思われがちなパイプラインを分かりやすく解説 - Qiita

                                                                機械学習とパイプライン エンジニアの皆さんは、「パイプライン」といえば何を思い浮かべるでしょうか? 恐らく多くの人は、 ①最近ハッキングされたことで話題の、石油輸送管 ②基本情報試験などで頻出の、CPUの並行命令実行の仕組み を思い浮かべるかと思います。 ※画像はWikipediaより 機械学習分野でも、Scikit-LearnやMLOps系のツールにおいて頻出する用語であり、 何となく、「複数の処理を連続で行う仕組み」といったイメージを持たれている方が多いかと思います。 ですが、連続処理なら各処理を順番に実装すれば同様の機能を実現できるため、正直 「メリットがよく分からん!」 と思われている方も多いかと思います。 私もそう思っていましたが、調べてみると、場面によっては必要不可欠と言えるようなメリットがある事が分かったので、 記事にまとめようと思います パイプラインとは? パイプラインの概

                                                                  機械学習で「メリットが分かりづらい」と思われがちなパイプラインを分かりやすく解説 - Qiita
                                                                • Remo ユーザの家電操作を可視化してみた - Nature Engineering Blog

                                                                  機械学習エンジニアの原 @toohsk です。 ユーザの皆さんに使っていただくなかでNature Remo は4周年を迎えることができました、ありがとうございます。 今回は、Nature Remo シリーズが日常でどのような時間帯にどのような家電を操作しているのか?を可視化したので、紹介していきたいと思います。 何をしたの?? 今回は2021年9月にNature Remo から家電にコマンドを送信した曜日 × 時間帯をヒートマップとして可視化しました。 また、Nature Remo 単位で利用した曜日 × 時間帯をヒートマップとして可視化しました。 何でこの分析をしたの?? 一般的にサービスを開発していく中で、このような使われ方をされるのではないか?しているのではないか?などの想像が働くことがあります。このような想像をふくらませるときに想像者の原体験に左右されてしまい、マイノリティなケース

                                                                    Remo ユーザの家電操作を可視化してみた - Nature Engineering Blog
                                                                  • Hosting your Models and Datasets on Hugging Face Spaces using Streamlit

                                                                    Hosting your Models and Datasets on Hugging Face Spaces using Streamlit Showcase your Datasets and Models using Streamlit on Hugging Face Spaces Streamlit allows you to visualize datasets and build demos of Machine Learning models in a neat way. In this blog post we will walk you through hosting models and datasets and serving your Streamlit applications in Hugging Face Spaces. Building demos for

                                                                      Hosting your Models and Datasets on Hugging Face Spaces using Streamlit
                                                                    • ラズパイ4を買ったのでからあげ本をやってみた その1 - Qiita

                                                                      重い腰をあげてようやくラズパイ4を購入したので、機械学習をやろうと思い、からあげ本をやってみたときの備忘録です。 環境は以下になります。 OS:ubuntu 20.04 docker:20.10.7 ラズパイ4 メモリ8GB web camera: Logitech C270 OSは etcher で焼いて使用しています。 https://www.balena.io/etcher/ 作成したものはコチラ にあります。 docker イメージもdocker hubにはpushしてあります。 docker をインストール 自分の場合は基本的にクリーンな環境でやりたいこともあるのですが、セットアップにあれこれ時間がかかるのはどうだろうなぁということと、インストール手順とか忘れてしまうのでコードで残せるように基本的にdockerを使って色々やっています。 ubuntuの場合、一番簡単なのは以下かな

                                                                        ラズパイ4を買ったのでからあげ本をやってみた その1 - Qiita
                                                                      • XGBoostやCNNを用いた「Data Journalism Awards 2019」受賞作 - u++の備忘録

                                                                        「Data Journalism Awards 2019」を受賞した全12作の中で、特に機械学習など高度なデータサイエンスを活用した事例があったので、簡単に概要を紹介します。 Radmesser 作品URL 受賞概要 概要 課題背景 目的 データ収集 データ分析 追い越しイベントの検出 地理情報などの分析 結果の可視化 チーム構成 おわりに Radmesser By ドイツの新聞社「Der Tagesspiegel」 作品URL interaktiv.tagesspiegel.de 受賞概要 https://datajournalismawards.org/projects/radmesser/ 概要 課題背景 自転車に乗る人たちから「追い抜きの車の接近が怖くて市街で自転車に乗りづらい」との声が挙がっていた ドイツでは自転車に乗った人を車が追い越す際の接近距離に関する法的規制はあるが、この

                                                                          XGBoostやCNNを用いた「Data Journalism Awards 2019」受賞作 - u++の備忘録
                                                                        • richmanbtcさんのチュートリアルをじっくり読んでみた|黒枝

                                                                          Cover Photo by Paul Hanaoka 注! この記事はrichmanさんが2021年の9月頃に行ったアップデート以前のコードを参考としています。コードのアップデートと共にご本人が解説を加えてくださっていますので、最新の情報は後述のリンクを辿ってレポジトリよりご確認ください。 最近すっかり機械学習にはまってしまいました。まだ触り始めて一ヶ月(2021年8月時点)ほどですが、真っ白な状態だったので統計や数学の本を何冊か読み、いくつかの動画コースを飛ばし読みスタイルで進めるなどしています。 少しだけ知識がついてきたので、richmanbtcさんが作成してくださったこちらの素晴らしいチュートリアルを読み解いてみることにしました。 https://note.com/btcml/n/nc5c63a9f5aa2 機械学習の教材自体は英語のものまで含めると無料でもたくさんありますが、ri

                                                                            richmanbtcさんのチュートリアルをじっくり読んでみた|黒枝
                                                                          • 自然言語処理で、レビューの識別やってみた!その2【図解速習DeepLearning】#013 - 福岡人データサイエンティストの部屋

                                                                            こんにちは!こーたろーです。 【図解速習DEEP LEARNING】の自然言語処理の第2弾です。 本日は、映画情報サイトにあるレビューを識別する(その2)を行っていきます。 昨日は、Embedding層とMLPで構成されたものを取り扱いました。 自然言語処理で、レビューの識別やってみた!その1【図解速習DeepLearning】#012 - 福岡の社会人データサイエンティストの部屋 今回は、TF_Hubで提供されているEmbeddingモデルを使って、転移学習を行っていきます。 1.必要なライブラリーのインポート import tensorflow as tf import tensorflow_hub as hub import matplotlib.pyplot as plt import numpy as np import os import pandas as pd import

                                                                              自然言語処理で、レビューの識別やってみた!その2【図解速習DeepLearning】#013 - 福岡人データサイエンティストの部屋
                                                                            • 機械学習の評価指標 分類編:適合率や再現率、AUC(ROC曲線、PR曲線)を解説

                                                                              学校での成績評価や会社での人事評価といったように、評価というのは、社会で生きる人々にとって常について回るものですね。しかし、評価するというのは、身近でありながら案外難しいことではないでしょうか? 重要なひとつの点で優れていればいいのか、あるいは全体的にバランスよく優れていることに対して高い評価をつける方がいいのか。客観的で一貫性のある評価をするには評価の基準、評価指標が必要です。 そしてそれは、機械学習のモデルも同様です。機械学習のモデルを作成した際に、そのモデルがどれくらい「良い」モデルなのかを判断するためには、評価指標を決めて判断しなければなりません。ということで、本稿では、機械学習の評価指標(分類編)と題し、分類問題に対する機械学習モデルの評価指標について、解説していきます。 評価指標とは 本節では、評価指標を用いる目的と、評価指標を理解するための重要な前提知識として、混同行列(Co

                                                                                機械学習の評価指標 分類編:適合率や再現率、AUC(ROC曲線、PR曲線)を解説
                                                                              • データの可視化と相関関係の把握を同時に行う - Qiita

                                                                                はじめに データ分析の際にはグラフを用いてデータを可視化すると思います。そのとき、2変数の相関を表す統計量も同時に表示できたら便利ですよね。そこで、変数の内容(カテゴリか数値か)に応じて適切なグラフに適切な統計量を表示できるようにしました。 これまでのおさらい これまで記事にした、変数の内容別の適切なグラフ化メソッドと、相関を表す統計量についてまとめます。詳細は下記のリンクをご覧ください。 説明変数、目的変数別データの可視化方法 カテゴリ変数についても相関を求める方法 適切なグラフに適切な統計量を記載 以前作成した、「変数の内容(カテゴリか数値か)に応じて適切なグラフを描く」メソッドに手を入れて、適切なグラフに適切な統計量を記載します(参照:pandas DataFrameを適切なグラフを自動で選んで可視化するメソッドを作った)。 import matplotlib.pyplot as p

                                                                                  データの可視化と相関関係の把握を同時に行う - Qiita
                                                                                • Pythonデータ可視化に使えるseaborn 25メソッド - Qiita

                                                                                  Pythonデータ可視化に使えるseabornのメソッド25個を一挙紹介します。また最後に、データ分析の流れを経験できるオススメ学習コンテンツを紹介したので、ご参考ください。 必要なライブラリ

                                                                                    Pythonデータ可視化に使えるseaborn 25メソッド - Qiita