並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 35 件 / 35件

新着順 人気順

ヒストグラムの検索結果1 - 35 件 / 35件

  • パフォーマンス改善の始め方と、APIレスポンスタイムを67%短縮した話 - YOUTRUST Tech Blog

    こんにちは、YOUTRUST Webエンジニアの寺井(YOUTRUST/X)です。 私はYOUTRUSTに入社してからこれまでプロダクト開発部に所属しており、主に機能開発を担当していました。 2024年8月からは技術開発室に異動し、この1ヶ月はパフォーマンス改善に取り組んできました。 そこで、今回はこの1ヶ月間パフォーマンス改善に取り組んだ過程とその結果を記事にしたいと思います。 1. することの方針の決定 技術開発室に異動と言っても、既存のチームに加入する形ではなく、私の異動とともに新たに品質チームというチームができた形でした。 そのため、着手可能な状態の具体的なタスクがあるわけではなく、何をするか、どんな優先順位で進めていくかから決めていく必要がありました。 チームができた背景としては、品質面の問題は開発組織として把握しつつも、これまでどうしても対応が後回しになってしまっており、特にY

      パフォーマンス改善の始め方と、APIレスポンスタイムを67%短縮した話 - YOUTRUST Tech Blog
    • PHP アプリケーションのトレース計装ではじめる OpenTelemetry 入門 - Shin x Blog

      OpenTelemetry を利用して PHP アプリケーションのテレメトリデータを計装する方法をまとめました。 本エントリのコードは下記で公開しています。 github.com OpenTelemetry とは 用語 PHP アプリケーションのマニュアル計装(手動計装) 構成 OTel Collector Jaeger 動作環境 必要なパッケージ PHP コード 設定 実行 PHP アプリケーションのゼロコード計装(自動計装) 必要な拡張とパッケージ 設定 PHP コード 実行 さいごに 参照 OpenTelemetry とは opentelemetry.io OpenTelemetry は、サービスやアプリケーションのテレメトリーデータ(トレース、メトリクス、ログなど)を計装、生成、収集、送信するためのオブザーバビリティフレームワークです。ベンダーニュートラルな OSS であり、CNC

        PHP アプリケーションのトレース計装ではじめる OpenTelemetry 入門 - Shin x Blog
      • 【2024年8月】『S&P500(米国株)』 今は買いのタイミングなのか? テクニカル分析で検証! - 『タクドラたみ』の米国株投資

        【結論】 「S&P500」を 積極的に買うタイミングは 一瞬で過ぎ去りました 補足 ただし、ドルコスト平均法での積立投資は、株価が上がろうが、下がろうが、関係なく継続し積み立てる こんにちは!タクドラたみです♪ 今回は、毎月恒例、8月の、米国株の買いのタイミングをテクニカル面で検証です ぶっちゃけ、テクニカル分析は、積立投資では、全く役立ちませんが、 市場を俯瞰するには、いいアプローチと思っています! 今回は、2024年8月19日時点での検証です 使うテクニカルチャートは主に「S&P 500:チャート - Yahoo!ファイナンス」を元にし、私が編集したものです。 見るポイントは、以下の4点です。 検証ポイント ① 「 移動平均線 」 ② 「 ボリンジャーバンド 」 ③ 「 RSI 」 ④ 「MACD」 移動平均線は、26週の長期線(約200日)のみで、シンプルに見ていきます 「移動平均線

          【2024年8月】『S&P500(米国株)』 今は買いのタイミングなのか? テクニカル分析で検証! - 『タクドラたみ』の米国株投資
        • モンテカルロ法シミュレーション。 - Qiita

          ショートストーリー: 「データが語る、東京の米の未来」 東京の高層ビルの谷間にあるオフィスで、田中陽介はモニターに映し出されたコードに集中していた。彼の仕事は、未来の東京の食料供給を支える重要なプロジェクトだった。それは、東京に住む何百万人もの人々にとって最も重要な食料、つまり「米」の適正在庫量をデータに基づいて予測することだった。 日本の首都東京は、世界中のどの都市よりも多くの米を消費する。だが、都市化と人口の変動に伴い、米の需要は変わり続けていた。もし在庫が不足すれば、都市全体にパニックが広がるだろう。一方で、過剰な在庫は無駄なコストを生む。そこで陽介は、これらの複雑な問題を解決するために、モンテカルロシミュレーションを使ってデータを分析することにした。 「在庫量が変わるシナリオを無数にシミュレートし、最も適正な在庫量を割り出す」と陽介は自分に言い聞かせながら、Pythonのコードを丁

            モンテカルロ法シミュレーション。 - Qiita
          • S3上のログデータをBigQueryにニアリアルタイム連携する基盤を作った話 - Classi開発者ブログ

            こんにちは、データプラットフォームチームの鳥山(id: to_lz1)とマイン(id: manhnguyen1998)です。 Classiでは、AWS上にあるサービスが出力したログをBigQueryに連携するプロダクト「Seneka」を開発し*1、社内の開発者・分析者に役立ててもらっています。 ログの連携はこれまでバッチ処理で行っていたのですが、この夏に技術的なチャレンジも兼ねてニアリアルタイムでの連携が出来るように移行しました。そこで、この記事で移行前後の構成と、移行時に気をつけたことについて、紹介できればと思います。 Senekaのそれまでの構成 改善方法を議論する前に、まずは従来の構成について簡単に紹介します。 バッチ処理を軸にしたSenekaの旧構成 アプリケーションまたはロードバランサーからS3にログファイルがアップロードされる Cloud Composerで毎時実行されるDAG

              S3上のログデータをBigQueryにニアリアルタイム連携する基盤を作った話 - Classi開発者ブログ
            • 【株式投資】機械学習を用いた株価の騰落予測とバックテスト

              ✅目的 機械学習ライブラリを使用して株式投資のストラテジの立て方について紹介します。 今回はXGBoostを使用した2値分類による株価の騰落予想を実施し、バックテストを行います。 バックテストの結果は単純移動平均およびロングオンリーストラテジの収益率と比べて有効なのかを確認します。 また、機械学習で分類をおこなったときに使用する評価指標である混合行列についてまとめます。 ストラテジを立てる過程、バックテストについては実際にGoogle Colaboratoryで実施し手法を公開しています。 最終的な投資判断は自己責任となりますのでよろしくお願いします。 最大限注意をして、この記事を作成していますが、誤りがありましたらご指摘いただけると幸いです。 📃XGBoostについて XGBoost(eXtreme Gradient Boosting)とは決定木系の機械学習アルゴリズムです。 決定木と

                【株式投資】機械学習を用いた株価の騰落予測とバックテスト
              • データサイエンス100本ノック(構造化データ加工編) - Julia/Base/Query - Qiita

                データサイエンス100本ノック(構造化データ加工編) - Julia/BaseR/Query 別稿では DataFramesMeta を使う場合の解答例を示した。 https://qiita.com/WolfMoon/items/387d18e4ea3f65768997 本稿では BaseR の場合と Query を使う場合の解答例を示す。 ファイル等の準備 https://github.com/The-Japan-DataScientist-Society/100knocks-preprocess に書かれているように進めればよいが,デスクトップマシンに Python の実行環境がある場合には,そのページの中程の Requirement > Cloud Service > Colaboratory > Open in Colab をクリックし,最初のセルの import os impor

                  データサイエンス100本ノック(構造化データ加工編) - Julia/Base/Query - Qiita
                • Nikon Z50:顕微鏡カメラとしての活用

                  顕微鏡画像撮影も仕事としています。フィルム時代からなので、かれこれ30年以上生業としていますが、デジタル時代になってからはいち早くデジタルカメラを導入して使用しています。 とは言っても顕微鏡写真の依頼は日々来るものではなく、せいぜい月一程度です。そのために顕微鏡専用のカメラを買うまでもないので、一眼レフ時代は普段普通の撮影業務で使っていたD1x、D2xs、D300s、D500と使ってきました。 一眼レフなので、ファインダー像を見るためにアングルファインダーを装着したり、ミラーブレ・シャッターブレを防ぐために遅延露出をする必要がありますが、きちんと調整を行えばセンサーの大きさを活かして顕微鏡専用のカメラにも勝るとも劣らない画像を撮ることができます。当時の顕微鏡専用カメラは小型CCDのカメラで、誰でも気軽に撮れる半面、あまり画質が良いものではありませんでした。 一眼レフで撮影した写真の方が諧調

                    Nikon Z50:顕微鏡カメラとしての活用
                  • LightGBMとは何かについて簡単に整理してみよう! - Qiita

                    1. LightGBMとは何か まず、LightGBMの概要を説明します。 LightGBMは、Microsoftが開発した勾配ブースティング※1 のフレームワークです。特に、大規模なデータセットを効率的に処理するために設計されており、分類、回帰、ランキング問題などに広く利用されています。 ※1 勾配ブースティングは、決定木をベースにしたアンサンブル学習法の一つである。 主な特徴: 高速な学習と予測速度 メモリ使用量の低さ 大規模データに強い 欠損値やカテゴリ変数の取り扱いに優れている​ 2. LightGBMのアルゴリズム構成 LightGBMは、従来の勾配ブースティングアルゴリズムを改良し、特に以下の点で優れています。 2.1. ヒストグラムベースの決定木学習 LightGBMは、データをビン(bin)に分割し、連続変数を効率的に処理します。このヒストグラムアプローチにより、他の勾配ブ

                      LightGBMとは何かについて簡単に整理してみよう! - Qiita
                    • Streamlit in Snowflake (SiS) で自然言語によるデータ分析をしてみる

                      はじめに Snowflake では Snowflake Copilot という LLM アシスタント機能がプレビュー機能として公開されています。この Snowflake Copilot を用いることで自然言語を用いてテーブルデータの分析を行うことが可能です。 一方で Streamlit in Snowflake (SiS) では簡単に生成 AI を組み込んだり、テーブルデータにセキュアにアクセスすることができるため、もっとお節介な自然言語データ分析ができるのではないか?と思い、自然言語で分析したり可視化したりできるアプリを作ってみました。 機能概要 実現したいこと SQL に馴染みの無いビジネスユーザーが利用できる DB / スキーマ / テーブルをマウス操作で選んで分析できる かなり曖昧な自然言語でも分析できる 実際の画面 (抜粋) 以下は Cortex LLM (snowflake-a

                        Streamlit in Snowflake (SiS) で自然言語によるデータ分析をしてみる 
                      • 確率密度関数とは?わかりやすく正規分布一様分布の面積が確率になる意味と求め方 | いちばんやさしい、医療統計

                        統計学では、確率密度や確率密度関数といった語句がよく出てきます。 これらの言葉は、”確率”としばしば混同されて使われていますが、確率と確率密度は大きく異なります。 では、確率と、確率密度や確率密度関数は何が違うのでしょうか。 この記事では、統計学での重要単語”確率密度と確率密度関数”についてわかりやすく出てきます。 確率密度関数とは?を理解するのに重要な確率変数 確率密度の話をするには、はじめに確率変数の話をする必要があります。 確率変数は、”ある変数の値をとる確率が存在する変数”です。 例えば、サイコロを例にして考えてみましょう。 サイコロは1、2、3、4、5、6と6つの目があります。 サイコロの各目が出る確率は1/6ですから、それぞれのサイコロの目は確率変数です。 確率変数は、上の2つ図では横軸にあたります。 この確率変数は、確率変数の性質によって、 離散確率変数 連続確率変数 2種類

                          確率密度関数とは?わかりやすく正規分布一様分布の面積が確率になる意味と求め方 | いちばんやさしい、医療統計
                        • Photoshop(Beta)デスクトップ版

                          Photoshop ユーザーガイド Photoshop の概要 夢をカタチに Photoshop の新機能 初めての写真編集 ドキュメントの作成 Photoshop | よくある質問 Photoshop の必要システム構成 Photoshop とは Photoshop とその他の Adobe 製品およびサービス Photoshop で Illustrator アートワークを作業する InDesign での Photoshop ファイルの操作 Photoshop 用 Substance 3D マテリアル Photoshop の Capture アプリ内拡張機能の使用 Photoshop iPad 版(中国本土ではご利用いただけません) Photoshop iPad 版 | よくある質問 ワークスペースについて システム要件 | Photoshop iPad 版 ドキュメントの作成、表示、書き

                          • topGO | 発現変動遺伝子の GO 解析

                            2017.04.11 トランスクリプトーム解析による発現変動遺伝子を同定した後に、続けて GO 解析を行う場合がある。これは発現変動遺伝子だけが持つ GO terms が、全遺伝子の持つ GO terms に比べ、どれぐらい異なっているのかを調べるというものである。 topGO パッケージ(Bioconductor)ではこのような GO 解析の機能を提供している。このパッケージを利用して GO 解析するには以下のように行う。 GO 解析用のデータを準備 発現変動遺伝子に対して GO 解析を行うのであれば、その遺伝子名(Ensembl ID など)、p-value あるいは FDR などを準備する。また、解析する生物種に対応したアノテーションデータベースもロードする。 GO 解析 検定方法を指定して、GO term の検定を行う。 GO 解析結果の解釈 検定結果を表に出力し、あるいはグラフと

                            • マウス初期胚の型破りなDNA複製様式を発見

                              理化学研究所(理研)生命機能科学研究センター 発生エピジェネティクス研究チームの高橋 沙央里 研究員、平谷 伊智朗 チームリーダー、染色体分配研究チームの北島 智也 チームリーダー、神戸大学 大学院農学研究科の京極 博久 助教(理研 生命機能科学研究センター 染色体分配研究チーム 客員研究員)、三重大学 大学院生物資源学研究科の竹林 慎一郎 教授らの共同研究グループは、受精直後のマウス初期胚における特殊なゲノムDNA複製[1]様式を発見し、これが通常の体細胞型の複製様式に段階的に変化する過程で染色体分配異常[2]が高頻度に生じていることを見いだしました。 本研究成果は、体細胞で見られる安定したゲノムDNA複製が受精後に確立する仕組みや、哺乳類の発生初期に染色体分配異常が多い理由の理解につながり、受精卵を対象とした生殖医療においても基礎的知見となることが期待できます。 近年、体細胞におけるゲ

                                マウス初期胚の型破りなDNA複製様式を発見
                              • Matplotlibを使った基本的なグラフ作成ガイド - Qiita

                                はじめに Matplotlibを使えば折れ線グラフ、棒グラフ、散布図、ヒストグラム、パイチャートなど、さまざまな種類のグラフを簡単に作成できます。例えば、データの傾向やパターンを視覚化したり、作成したグラフを使って、分析結果を視覚的に分かりやすく伝えることができます。それではMatplotlibの使い方を書いていきます! 基本的な使い方 まず、Matplotlibには2つのグラフ作成方法があります。1つはオブジェクト指向のAxesインターフェースを使用する方法。2つ目は簡略化されたpyplotインターフェースを使用する方法。 複雑なカスタマイズが必要な場合や、後から特定のグラフ要素を操作したい場合は、オブジェクト指向のAxesインターフェースが推奨されます。 シンプルなグラフやインタラクティブな作業には、pyplotインターフェースが便利です。 簡単な例をもとにそれぞれの比較をしてみます。

                                  Matplotlibを使った基本的なグラフ作成ガイド - Qiita
                                • 彡(゜)(゜) Linuxでラジオ実況したいんやが|pax

                                  2024.08.04追記: AndroidにTermuxをインストールして使うことができます。コメント欄のakaさんに感謝します。 彡(゜)(゜) 原ちゃん、遊びに来たで (´・ω・`) やあおにいちゃん。いらっしゃい 彡(゜)(゜) 前はLinux Mintで実況する方法を教えてくれてありがとうな。ワイの実況ライフも捗っとるわ。 (´・ω・`) それはよかった 彡(゜)(゜) せやけどな、ワイは常にテレビだけ実況しとるわけちゃうねん (´・ω・`) テレビだけじゃない…? 彡(゜)(゜) せや。ワイはラジオも聴くんや。radikoでな。 (´・ω・`) そうか。ラジオを聴きながら実況もしたいって言いたいんだね? 彡(゜)(゜) せや。その方法とかあったりするか? (´・ω・`) あるよ。でもね、おにいちゃん。radikoはブラウザで聴けるよ。だからWindowsでもLinuxでもやり方は

                                    彡(゜)(゜) Linuxでラジオ実況したいんやが|pax
                                  • RustでMCMC(Metropolis-Hasting)

                                    皆さんこんばんわ。Davidです。 今(12/26 01:01)この記事を書き始めたワケですが、実は12/24の投稿だったんですね〜。 いやホント申し訳ない。なぜかクリスマス・イブなら僕はassignされてないだろうとか言う妙な思い込みがあったんですね。申し訳ない。 はい、という訳で、一応書いていくんですけども、今回はRustでMCMCの一手法である、Metropolis-Hasting(M-H)法を書きました。 皆さんMCMCってご存知ですか? もちろん、MiッCuMi〜Cuにし〜てやんよ〜のMCMCではありません。 Marcov Chain Monte CarloのMCMCです。 さて、すでに講義で数値計算を履修した人なら知ってることですが、Monte Carlo(法)というのは、何か計算したいものを、乱数を使ってゴリゴリ近似していく計算方法です。オーソドックスなのだと、円周率の計算を

                                      RustでMCMC(Metropolis-Hasting)
                                    • 実戦!ミニロトチャレンジ【第1301回】予想と結果と統計データ|実況!統計チャレンジ

                                      ミニロト17年目。一週たりとも予想を休んでいない shirono-jです。 〖前ポジ2作戦〗を継続中。 大コケしやすいやり方なので、ドキドキ・ヒヤヒヤする。でも、当たるとデカイはずなのでワクワクもしてる。こころの動きが複雑だ。 これぞ選択式のダイナミズムだな。 実況・速報 〖予想〗購入実績 【dc】と【week】の組合せ比=6:4:5:0 7~8week数字を優先 緑数字=0~1個 青数字=1~2個 赤数字=1~2個 黒数字=0~2個 〖前ポジ2作戦〗テスト運用中 方針優先で無理やりにコンセプトへ合わせていくと、どこかにひずみが出来てナチュラルにバランスが狂った部分ができる。 自分的には、理想的な仕上がりに近づいていると思う。 あとは当たるかどうか。ここが問題だ。 ◇ 1セット目 支配色=オレンジにセット 作戦=【混合W】 ◇ 2セット目 支配色=イエローにセット 作戦=【混合W】 【結果

                                        実戦!ミニロトチャレンジ【第1301回】予想と結果と統計データ|実況!統計チャレンジ
                                      • 正準相関分析~多変量同士の相関関係を捉える~|sogachin3

                                        今回の記事では正準相関分析をRのコードを用いてとりあえず実践してみるということを目標としています。 1. 相関分析 まず初めに相関関係について紹介していきます。相関関係といえば、xという変数があり、かつyという変数が存在した時に、その関係性を相関係数であるrを用いて行う相関分析が有名です。相関係数のrは、両変数の共分散を各変量の標準偏差の積で割ると算出できます(ピアソンの積率相関係数)。下図のように、相関係数が大きいほど2つの変数間に強い関係性があることが分かります。また、相関係数がプラスかマイナスかで二つの変数の関係性が分かります。 図1.  2変数間の相関関係2. 重回帰分析  それでは、次はxの変数が多数あり、yの変数が1つであった場合にはxとyとの関係性を見る場合にはどうしたらいいでしょうか。代表的な分析方法に重回帰分析がありますね。例えば、xの変数が3つあった場合には、 y =

                                          正準相関分析~多変量同士の相関関係を捉える~|sogachin3
                                        • 音響調整卓の今まで~現在~これから(SOUND A&T No.118)

                                          はじめに 日々、音・音響業務に携わる皆様に向けて、私ごときが執筆をさせていただくというのは大変恐縮ではありますが、このような貴重な機会をいただきありがとうございます。本題に入る前に、まず私が考える「ミキサーの役割」を定義させていただきたいなと思います。 あえて「ミキサーの役割」と書きました。「機器」と「エンジニア」それぞれに役割があるからです。まず、機器の役割は「音を混ぜて良い音にして聴衆に届けること」だと思います。では、その機器を使うエンジニアの役割は何でしょうか? 私の言葉で書くと「表現者の意図を聴衆に届け、一体感と感動のひと時を作り上げること」となります。人によっては異論もあると思いますが、今回はこの定義で執筆させていただいております。 この「ミキサーの役割」を達成するために、“機器としてのミキサー”は「エンジニアの創造力を支えるツールであるべき」だと考えますし、それと同時に「ビジネ

                                            音響調整卓の今まで~現在~これから(SOUND A&T No.118)
                                          • 実戦!ミニロトチャレンジ【第1297回】予想と結果と統計データ|実況!統計チャレンジ

                                            今週、とうとう「ミニロト毎週購入歴=18年目」に突入した。 良いきっかけなので、試しにちょっとマインドを変えてみた。 方針を最優先して、バランスは整えない。これまでは「こんなに偏ったの来るわけない」と調整していた形も、極力手は加えずにまっすぐ突っ走る。 もし良い結果が出たら、連続試験をおこなう。 実況・速報 〖予想〗購入実績 方針を最優先、バランスは考えずにとにかく並べる。言い方を変えれば、かなり狭い範囲へ徹底して的を絞った形ともいえる。 具体的には、下記の方針を重用して他の条件は変なバランスを取っていても無視した。今回はこれでいい。 【dc】と【week】の組合せ比=6:3:4:2(standard狙い) 緑数字1個 青数字0個 赤数字から2個以上 黒数字から1個以上 3~4week数字を優先的に1個使用する 前回ポジションから必ず2個使用する ➋❸❹❼はパーフェクトにこなせたが、他は妥

                                              実戦!ミニロトチャレンジ【第1297回】予想と結果と統計データ|実況!統計チャレンジ
                                            • OpenTelemetry & Google Cloud Monitoringによるリアルタイム通信サーバのレイテンシ計測 Now in REALITY Tech #107|REALITY

                                              OpenTelemetry & Google Cloud Monitoringによるリアルタイム通信サーバのレイテンシ計測 Now in REALITY Tech #107 こんにちは!DevOpsチームの小田 大輔です。最近は日本料理を作ったり、TVの録画サーバの構築にハマっています。 さてREALITYのDevOpsチームは、メンバー2人で一手に開発生産性向上や、費用維持・削減、サービスをスケーラブルに保つ取り組みを行なっています。今回は、その中でも最近行ったNode.jsなリアルタイム通信システムのレイテンシ計測の取り組みについてご紹介します。 REALITYのリアルタイム通信サーバREALITYでは配信のストリーミングサーバ、コメントサーバ、配信中のゲームの通信を捌くサーバなど、さまざまなリアルタイム通信サーバが肩を並べています。そしてその全てがNode.js & WebSocke

                                                OpenTelemetry & Google Cloud Monitoringによるリアルタイム通信サーバのレイテンシ計測 Now in REALITY Tech #107|REALITY
                                              • 実戦!ミニロトチャレンジ【第1300回】予想と結果と統計データ|実況!統計チャレンジ

                                                ミニロト17年目。一週たりとも予想を休んでいない shirono-jです。 計算して計算して、やっとまとまったのだが〖前ポジ2作戦〗を毎週のルーティンにするのは非常に効率が悪そうだ。よって、レギュラーの作戦ではなく、機を見て投入する準レギュラーにしようかと考えている。 ただし、現在は〖W&前ポジ2〗が「77週連続」で出ていないので、そろそろ来るはずだ。最低でも来るまでは継続してみよう。 現在のところ〖前ポジ2作戦〗をレギュラーにする可能性は低い。でもできれば、今年いっぱいくらいはテスト運用で体感を重ねたい。 そして準レギュラーとした場合は、約5か月〖W&前ポジ2〗が出ないなどして、「そろそろ来るな」と予想した時にだけ発動するBIG作戦としてストックするのだ。 実況・速報 〖予想〗購入実績 【dc】と【week】の組合せ比=6:3:4:2(標準比率) 6week数字を優先 緑数字=0~1個

                                                  実戦!ミニロトチャレンジ【第1300回】予想と結果と統計データ|実況!統計チャレンジ
                                                • 実戦!ミニロトチャレンジ【第1299回】予想と結果と統計データ|実況!統計チャレンジ

                                                  ミニロト17年目。一週たりとも予想を休んでいない shirono-jです。 先週、第一回目の〖前ポジ2〗チャレンジだったが、結果は散々だった。それも、ちゃんと「W」が来ていたにもかかわらずだ。 自信がガラガラと崩れ去る感じもいなめないが、主原因は緑数字の出現を失中してしまったことだと思う。あと、役牌に前回ポジションがかぶって出現するとあまり効率が良くないとも感じた。 やってみて初めてわかることもある。 でも、それも想定内だ。まだ続ける。 実況・速報 〖予想〗購入実績 〖前ポジ2作戦〗のテスト運用を継続中。 当面は玉砕覚悟で効果を確認する。 【dc】と【week】の組合せ比=6:3:4:2(標準比率) 緑数字=0~1個 青数字=1個以上 赤数字=2個以上 黒数字=1個以上 4week数字を優先的に1個使用する だいたい半年くらいかかるだろうか。効果があるかないかを感じ取れるまでは。 とにかく

                                                    実戦!ミニロトチャレンジ【第1299回】予想と結果と統計データ|実況!統計チャレンジ
                                                  • BART:Bayesian Additive Regression Treesについて - 名前はまだない

                                                    はじめに 条件付き平均処置効果を算出する因果推論コンペ等で良い成績を収めている手法としてBayesian Additive Regression Trees(BART)が有名です。 BARTについて名前以上のことを理解していないので、調べて簡単にまとめました。 arxiv.org はじめに Bayesian Additive Regression Trees 決定木のアンサンブル 事前分布の設定 事前の独立性と対称性 の事前分布 1. ノードの深さ 2. ノードの分割対象とする変数の分布 3. 分割する値の分布 の事前分布 の事前分布 モデルの推定 因果効果の推定 実行 モデル推定 推定結果の処理 モデルの診断 参考 Bayesian Additive Regression Trees BARTは因果推論のための機械学習モデルではなく、予測モデルの一つです。 未知の関数 を近似するための決

                                                      BART:Bayesian Additive Regression Treesについて - 名前はまだない
                                                    • データサイエンス100本ノック(構造化データ加工編) - Julia/DataFramesMeta - Qiita

                                                      データサイエンス100本ノック(構造化データ加工編) - Julia/DataFramesMeta 別稿では Base の場合と Query を使う場合の解答例を示した。 https://qiita.com/WolfMoon/items/dea015e37f83da32b0fa 本稿では DataFramesMeta を使う場合の解答例を示す。 ファイル等の準備 https://github.com/The-Japan-DataScientist-Society/100knocks-preprocess に書かれているように進めればよいが,デスクトップマシンに Python の実行環境がある場合には,そのページの中程の Requirement > Cloud Service > Colaboratory > Open in Colab をクリックし,最初のセルの import os imp

                                                        データサイエンス100本ノック(構造化データ加工編) - Julia/DataFramesMeta - Qiita
                                                      • Victoria Logsが良かったという話 - Qiita

                                                        WebUIについて WebUIには、以下の機能があります。 検索クエリ(LogQL)を投げて、検索する 日時はElasticSearchやGrafanaと同様のインタフェースで指定可能 検索画面にはヒストグラムが表示される カラムを絞ってテーブル出力する機能(ただし、保存する機能はないので、今はクエリ側で絞る方が早い) 以下のような親切な機能はありませんので、本格的な可視化にはGrafanaを使いましょう。 CSV出力 Viewの保存機能 画面から簡単に使えるフィルタ機能 認証とか権限管理とか Grafanaのダッシュボード対応 現状、まだ公式の承認済みプラグインとしてはインストールできませんので、オプションを入れたりする対応を行います。 2024/7/1に試した現在、以下が問題なく対応できています。 Table への対応 Count Statsを使った各種可視化への対応 Logs テーブ

                                                          Victoria Logsが良かったという話 - Qiita
                                                        • 『SACOPドリーム167(BTC半減期後の対応)』

                                                          皆さんこんにちはSACOPですそれでは本日のSACOPドリーム を見ていきましょう。 フリーBNBは0.00425107ロットRPが1,459。 フリーイーサリアムが0.00031647ロットRPが2,353。 フリードージコインが3ロットRPが974。 フリーTONが3.51752954ロットRPが142。 フリーSOLが0.00006250ロットRPが10。 こちらのRPはクリックしてると貯まるポイントで10万貯 まったらある程度のロットと交換できます。 それとSOLは新しくサイトが出来ました。 フリーSOLIN こちらも登録時は同様にプロフィールの2段階認証から メールの認証を行ってください。 今は出来たばかりでサイトが不安定です。 NEXOのBTCをSOLに変換しました。 2.11ロットここに送りましたがまだ届いておりません。 NEXOから送るとたまに12時間から24時間くらい遅

                                                            『SACOPドリーム167(BTC半減期後の対応)』
                                                          • Chrome 129 ベータ版  |  Blog  |  Chrome for Developers

                                                            特に記載のない限り、最新の Chrome ベータ版には以下の変更が適用されます。 チャンネル リリースです。詳細 記載されている機能の詳細については、 ChromeStatus.com.2024 年 8 月 21 日時点で Chrome 129 はベータ版です。ダウンロード 最新情報はパソコン版 Google.com でご確認ください。 Android の Google Play ストア。 CSS このリリースでは、2 つの新しい CSS 機能が追加され、3 つの機能が更新されました。 CSS interpolate-size プロパティと calc-size() 関数 CSS の interpolate-size プロパティを使用すると、CSS の内在サイズキーワード(auto、min-content、 fit-content)に対してページ内でアニメーションとトランジションを行うことが

                                                              Chrome 129 ベータ版  |  Blog  |  Chrome for Developers
                                                            • データレイクが料理に例えられているのを見て自分もデータレイクをファミレスで例えてみた。 - Qiita

                                                              こちらの記事をご覧いただきありがとうございます。 少し前までは時系列データの練習で天気予報をしていたのですが、私情によりデータレイクの勉強をすることになったので、それに関連する記事を書くことにしました。 勉強している中で、データレイクやデータウェアハウスが料理に例えられていることが多かったので、それにあやかって例え話を中心に解説します。 パワポを使ってデータレイクの解説を作ったので、こちらにもそれを使った解説記事を書きます。 記事の中身 ・前置き ・データレイクをファミレスで例える話 ・データレイクとは(データウェアハウスとは) ・おまけ ・あとがき この記事を見るといいことがありそうな人 データ分析に関わっている人 データ分析基盤を作る(作ろうとしている)人 データレイクが何か知りたい人 機械学習やデータ分析に興味がある人 データレイクって何ですか? 先にデータレイクの全体像をお見せして

                                                                データレイクが料理に例えられているのを見て自分もデータレイクをファミレスで例えてみた。 - Qiita
                                                              • 実戦!ミニロトチャレンジ【第1298回】予想と結果と統計データ|実況!統計チャレンジ

                                                                ミニロト17年目。一週たりとも予想を休んでいない shirono-jです。 新しい作戦を考案した。作戦名は〖前ポジ2作戦〗だ。 「W」発生時に 前回ポジションもふたつ発生しているところを狙いすます作戦であるが、発生率は約5%と低い状況だ。 しかし、発生率こそ低いが、もしその時〖前ポジ2作戦〗で待ち構えていた場合の爆発力は絶大なはずだと考えている。 今回、第1298回分からの〖前ポジ2作戦〗開始を宣言する。 実況・速報 〖予想〗購入実績 〖前ポジ2作戦〗を開始した。作戦遂行を徹底する。バランスなんかクソ喰らえだ。 【dc】と【week】の組合せ比=5:5:5:0 緑数字1個 青数字0~1個 赤数字から2個以上 黒数字から1個 4week数字を優先的に1個使用する 6項目の優先項目を用意したわけだが、これも流動的だ。とにかく〖前ポジ2作戦〗が最優先。今後も徹底していく。 理論的には自信がある。

                                                                  実戦!ミニロトチャレンジ【第1298回】予想と結果と統計データ|実況!統計チャレンジ
                                                                • データ分析プロジェクトの大まかな流れ その2 - Qiita

                                                                  下記の記事で、分析プロジェクトの大まかな流れをシステム開発におけるウォーターフォールと比較しながら、見てきたのでもう少し全体像を細かく見ていく。 1. 課題設定 データ分析プロジェクトの第一ステップは、解決したい問題や目標を明確にする「課題設定」です。このフェーズでは、プロジェクトの方向性を定めるために、課題の整理と仮説の構築が重要になってきます。 課題整理 解決したいビジネスの問題や目的を明確にします。これにより、分析の方向性が決まります。 仮説構築 ビジネスの課題を解決するために、どのような仮説を立てるかを考えます。仮説が分析の基礎となり、必要なデータや手法を決定します。 2. 分析計画 次に、課題を解決するための具体的な分析の計画を立てていきます。この段階では、どのデータを使用し、どのように分析を進めるかを決定し、プロジェクトの遂行に向けた土台を整える作業になります。 プランニング

                                                                    データ分析プロジェクトの大まかな流れ その2 - Qiita
                                                                  • 統計的な考え方「バラツキ管理」とは?

                                                                    本日は『統計的な考え方「バラツキ管理」』をお伝えいたします。 バラツキとは? 観測値・測定結果の大きさがそろっていないこと。又は不ぞろいの程度。ばらつきの大きさを表すには,標準偏差などを用いる。 JIS Z 8101-2 2.8ばらつき (統計的品質管理用語)より引用製品を製造するということは、どんなに品質が良い製品を作っても避けることができない、バラツキが必ずあります。それは生産の4M(人・機械・材料・方法)というバラツキが存在するためであり、これらの要因によって製品のQ(品質)・C(原価)・D(納期)にバラツキが出ます。 バラツキ管理とは?バラツキ管理とは『バラツキに注目し、ばらつく原因をつかむこと』 工場などで製造されている製品は、同じ原料、同じ機械を使って同じ作業を行ったとしても、作られた製品の品質にはバラツキが生じます。製品の品質を保つためには、このバラツキを管理していくことが重

                                                                      統計的な考え方「バラツキ管理」とは?
                                                                    • はじめての動画カメラマン〈撮影・録音・照明・ 構図〉超実践的ノウハウと知識で、撮影がもっと楽しくなる!

                                                                      本コースは、これから独学で動画カメラマンとして活動したい方、趣味で動画撮影をしたい方に向けたコースです。 とても難しく感じてしまう動画撮影を出来るだけ分かりやすく、楽しみながら学べる講義内容となっております。 ~~~ カリキュラム ~~~ ■セクション1 講義の進み方について 講義の進み方 ■セクション2 カメラについて カメラの機能について 〜メニュー画面〜 露出 〜絞り/ISO/シャッター〜 適正露出のサポート機能 〜ヒストグラム/ゼブラ〜 絞り値 〜F値〜 シャッター ISO感度 録画データの設定 〜動画サイズ/アスペクト比/録画形式〜 フレームレート フレームレートとシャッタースピードについて シャッタースピードとフリッカー現象について カメラのアクセサリー 三脚の選び方 メモリーカード ■セクション3 レンズについて レンズの概要 焦点距離 〜広角/標準/望遠〜 焦点距離とセンサ

                                                                        はじめての動画カメラマン〈撮影・録音・照明・ 構図〉超実践的ノウハウと知識で、撮影がもっと楽しくなる!
                                                                      • 簡単! 事前学習済モデルを利用したテキストデータのネガポジ分析 - Qiita

                                                                        はじめに 機械学習や深層学習の進歩に伴い、テキストの感情分析は身近なものとなってきています。 ChatGPTにテキストと共に「ネガポジ分類して」と投げかけたら答えてくれますし、感情分析APIもいろんなものがあります。 これまで私は、実行が手軽で、ネガポジだけではなく感情の強さのスコアも示してくれる「Google Natural Language API」を利用(適用記事)してきましたが、APIの利用はコストがかかる。。。できればコストは気にせずにじゃんじゃんやりたい。。。でも、ある程度の判定結果を得るにはAPIに頼ったほうがいんじゃぁないか・・・ こんな風に思っておりましたが、先日の記事の経験から「なんかいけそう」「事前学習済モデルやるな」と感じるようになりました。 そこで、事前学習済モデルを利用した テキストデータを読み込むだけでできるネガポジ感情分析をやってみました。 Hugging

                                                                          簡単! 事前学習済モデルを利用したテキストデータのネガポジ分析 - Qiita
                                                                        1