並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 258件

新着順 人気順

epsilonの検索結果1 - 40 件 / 258件

  • クレジットカードの偽決済画面が稼働していたサーバーについて調べてみた - piyolog

    2019年6月8日夜、クレジットカードの情報窃取を目的としたページが稼働していたと情報をいただきました。偽ページが稼働していたドメインやIPアドレスを調べたところ、いくつか興味深い情報が確認できたため、調べた内容をここではまとめます。 偽決済画面だらけのサーバー 情報提供頂いたURLではクレジットカード情報を窃取することを目的とした偽決済画面が稼働していた。 サブドメインには決済代行サービスのペイジェントに似せた文字列が用いられていた。 偽決済画面はワイン販売を行っている会社名がフォーム上部(モザイク部)に掲載。 この会社は2019年2月にWebサイトの改修を目的として一時閉鎖すると案内。 6月に新ドメインでECサイト再開。新ドメインへ移行した理由は「諸事情により」とのみ説明。 問題のドメインsearch-hot.comを調べる 問題のページが稼働していたドメインsearch-hot.co

      クレジットカードの偽決済画面が稼働していたサーバーについて調べてみた - piyolog
    • 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita

      追記: U-Netの中間層は常にSelf-Attentionとなります。ご指摘いただきました。ありがとうございます。(コード) オミータです。ツイッターで人工知能のことや他媒体の記事など を紹介しています。 @omiita_atiimoもご覧ください! 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! 未来都市にたたずむサンタクロース(Stable Diffusionで生成) 2022年8月、世界に大きな衝撃が走りました。それは、Stable Diffusionの公開です。Stable Diffusionは、テキストを受け取るとそれに沿った画像を出力してくれるモデルです1。Stable Diffsuionは10億個近いパラメータ数をもち、およそ20億個の画像とテキストのペア(LAION-2B)で学習されています。これにより、Stable Diffusionは入

        世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita
      • Epsilon on Twitter: "そもそも三浦瑠麗が世に出たきっかけは、東京大学理一(農学部)で地域環境工学を学び卒業直後に突如、自由民主党主催の「国際政治・外交論文コンテスト」で『日本の国際貢献のあり方』という論文により党総裁賞を受賞したことが始まり。第1次安倍… https://t.co/bMwqGbwMTH"

        そもそも三浦瑠麗が世に出たきっかけは、東京大学理一(農学部)で地域環境工学を学び卒業直後に突如、自由民主党主催の「国際政治・外交論文コンテスト」で『日本の国際貢献のあり方』という論文により党総裁賞を受賞したことが始まり。第1次安倍… https://t.co/bMwqGbwMTH

          Epsilon on Twitter: "そもそも三浦瑠麗が世に出たきっかけは、東京大学理一(農学部)で地域環境工学を学び卒業直後に突如、自由民主党主催の「国際政治・外交論文コンテスト」で『日本の国際貢献のあり方』という論文により党総裁賞を受賞したことが始まり。第1次安倍… https://t.co/bMwqGbwMTH"
        • 2019-nCoVについてのメモとリンク

          リンク集目次 国内外の状況 政府機関・国際機関等 学術情報 疫学論文 分子生物学/ウイルス学論文 臨床論文 インフォデミック関係 ワクチン関係 変異株関係 時系列メモ目次 新型コロナウイルス(2020年1月6日,11日) インペリグループによる患者数推定(2020年1月18日) 患者数急増,西浦さんたちの論文(2020年1月20日,23日) WHOはPHEIC宣言せず(2020年1月23-24日) 絶対リスクと相対リスク(2020年1月26日) 研究ラッシュが起こるかも(2020年1月27日) なぜ新感染症でなく指定感染症なのか? なぜ厚労省令でなく閣議決定なのか?(2020年1月27日) コロナウイルスに対する個人防御(2020年1月27日) 国内ヒト=ヒト感染発生(2020年1月28日) フォローアップセンター設置,緊急避難等(2020年1月29日) PHEICの宣言(2020年1月3

          • 【詳細版】 1+1=2 笑えない数学 ~笑わない数学の笑えない間違いの話~ - Sokratesさんの備忘録ないし雑記帳

            NHK で放映された『笑わない数学』という番組の次の回が話題になっていた. www.nhk.jp 企画意図としては「\(1+1=2\) という式を通して数学基礎論という分野を紹介する」というものだったのだが,怪しい説明や誤解を招く説明,端的に誤っている説明があった.というか,全体を通してそういうものがとても多かった.どう少なく見積もっても番組の内容の半分以上がそういうものになっている.正直,全然笑えない.笑わないのではなく笑えない. そういった説明に注意喚起を促し,簡単にだが訂正をするための記事を以前書いた.その記事は速報性を重視して書いており,「ここが怪しい」「ここが間違っている」ということだけを伝えることを目的としていたため,詳細や「具体的にどう直すべきだったのか」という点の記述が不十分であった.というか,一部わたしも素でまちがったこといくつか書いちゃった(訂正・取り消し線による削除済

              【詳細版】 1+1=2 笑えない数学 ~笑わない数学の笑えない間違いの話~ - Sokratesさんの備忘録ないし雑記帳
            • いろんなバンディットアルゴリズムを理解しよう - Qiita

              今回は、何も知らないところからバンディットアルゴリズムを学びました。 シンプルなバンディットアルゴリズムから、各ユーザーごとに最適化するContextual Bandit、順序を最適化するCascading Banditまで解説します。 学んでいて疑問に思ったことを解消しつつ記載しています。 ソースコード https://github.com/birdwatcherYT/bandit 対象読者 バンディットアルゴリズムを理解して実装したい人 ユーザーごとにカスタマイズしたバンディットを理解して実装したい人(Contextual Bandit) 順序を最適化するバンディットを使いたい人(Cascading Bandit) バンディットアルゴリズム バンディットの問題設定を説明します。 スロットマシンN台がある スロットマシンの腕を引くと報酬がもらえる 累積報酬を最大化したい バンディットアル

                いろんなバンディットアルゴリズムを理解しよう - Qiita
              • 金子勇さんのED法を実装してMNISTを学習させてみた - Qiita

                追記:続きを書きました。 はじめに 先日以下の記事が投稿され、その斬新な考え方に個人的ながら衝撃を受けました。 内容をざっくり言うと、ニューラルネットワークの学習を現在の主流であるBP法(誤差逆伝播法)ではなく、ED法(誤差拡散法)という新しい学習手法を提案しているものです。 もし記事の内容が本当ならニューラルネットワークの学習がO(1)でできてしまう事になり、まさしく革命が起きてしまいます。 (結論からいうと速度面はそこまででもなかったです(それでも早くなる可能性あり)) (ただこの新手法のポテンシャルは革命を起こす可能性は秘めているといっても過言ではありません) ED法に関してネットを探すとインターネットアーカイブに情報が少し残っていました。 このページですがED法のサンプルプログラム(C言語)が残っており、このサンプルプログラムをベースにpythonで書き起こしたものが本記事となりま

                  金子勇さんのED法を実装してMNISTを学習させてみた - Qiita
                • 強化学習の基礎まとめ - Qiita

                  こんにちは、すきにーです。 強化学習の基礎的な手法についてまとめました。 はじめに この記事では以下を説明しています 動的計画法 モンテカルロ法 TD法(SARSA、Q学習) コードはゼロから作るDeepLearning4 強化学習編 に載っているものを参考にしています。 参考記事 深層強化学習アルゴリズムまとめ ゼロからDeepまで学ぶ強化学習 これから強化学習を勉強する人のための「強化学習アルゴリズム・マップ」と、実装例まとめ 今さら聞けない強化学習(1):状態価値関数とBellman方程式 全体図 動的計画法 動的計画法は、エージェントが置かれた環境のモデルがすでに分かっているとき最適な方策を見つけるアプローチです。 方策反復法と価値反復法があります。 環境のモデルが分かっていることは少ないので、あまり使われません。 モンテカルロ法 動的計画法では環境のモデルが完全にわかっている状態

                    強化学習の基礎まとめ - Qiita
                  • 50代になってから始めた数学の学び直しを振り返り、独習ノートを晒します。

                    PDFを見返すと独習を始めた頃の線形代数のノートはほとんど殴り書きで、単に計算用紙としてノートを使っています。微分積分に入ると少しはましになってきますが、頭に入れたい概念の定義や定理の証明を何度も書き直したりしています。また独習ですから間違った理解を正しいと思い込んだまま証明を書いて、分かったつもりになっている箇所も少なからずありそうです。とまれ上記の表に挙げた各書籍に曲がりなりにも取り組んだことを示す、書証のつもりでノートを晒しました。 余談ですが、使用したノートは、PLUS の品番 NO-204GS (A4 G罫 5mm方眼 40枚) という方眼ノートです。また筆記用具は当初シャープペンシルを使っていましたが、「オイラーの贈物」からは万年筆に替えました。プラチナ#3776センチュリーUEF(超極細字)を使っています。 1.3 私について 本記事の作者であり学び直しをした本人である私は、

                      50代になってから始めた数学の学び直しを振り返り、独習ノートを晒します。
                    • 【コード付き】Pythonを使った偏微分方程式の数値解法【入門】 - LabCode

                      本記事では、偏微分方程式の数値解法の基本を、分かりやすい具体例とともに掘り下げていきます。偏微分方程式には解析的な解が存在しない場合が多いため、Pythonを活用してこれらの複雑な問題にアプローチする方法を学びます。 本記事を足がかりに数値解析の旅を始めてみませんか? 注1) 本記事は丁寧に解説しすぎたあまり、大変長くなっております。まずはご自身が興味のある部分だけをお読みいただくことを推奨します。 注2) 差分法の一部の話だけにとどめています。誤差や境界条件などの詳細な議論は冗長化を避けるためにご紹介していません。 偏微分方程式の数値解法とは 偏微分方程式の数値解法は、偏微分方程式(PDE: Partial Differential Equations)の解を近似的に求めるための手法のことを指します。これらの方程式は、多くの場合、解析的な解が見つけられないため、数値的な手法が必要となりま

                        【コード付き】Pythonを使った偏微分方程式の数値解法【入門】 - LabCode
                      • 深層学習界の大前提Transformerの論文解説! - Qiita

                        この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基本的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル

                          深層学習界の大前提Transformerの論文解説! - Qiita
                        • プロダクト担当者とデータサイエンティストで Prophet を使って EC サービスの注文額を予測する - Pepabo Tech Portal

                          技術部データ基盤チームのデータサイエンティストの @zaimy です。今回は、ハンドメイド作品を対象とする EC サービスである minne の注文額を、プロダクト担当者とデータサイエンティストで Prophet を使って予測した事例を、主に運用面から紹介します。 結論ファースト 背景 時系列予測を行うモデルの選択 特徴量の選択と工夫 モデリングの結果とビジネス的な成果 モデルの監視と継続的な改善 まとめと今後について 結論ファースト 月ごとの注文額を実績に対して誤差 1% 程度で予測できるようになりました。 背景 これまで minne では、経営計画に基づく年間の注文額の目標があり、それを過去実績に基づいて月割りにし、そこから日数で日割りにする…という流れで計算された、日ごとの注文額の目標を立てていました。 この目標値が予測値として使われているシーンもありましたが、当然、目標値は直近の実

                            プロダクト担当者とデータサイエンティストで Prophet を使って EC サービスの注文額を予測する - Pepabo Tech Portal
                          • ノイズのある教師データを用いた機械学習に関する研究サーベイ - ABEJA Tech Blog

                            こんにちは、Research Internの荒尾(@karolis_ml)です。 日進月歩の勢いで研究が進んでいる深層学習ですが、教師あり学習でもっとも大事なデータのアノテーション、応用分野ではまだまだ大変ですよね。例えば、犬の写真から犬種を判断する分類器を作ろうとして教師データが必要になったとき、あなたは以下の画像にどんなラベルをつけるでしょうか? 出典: Pixabay 犬好きの方は正しくアラスカンマラミュート、そうではない方は似た有名犬種であるシベリアンハスキーと答えられたことでしょう。マラミュートの茶色い目(かわいい)や小さめの尖った耳(かわいい)を見分けて正しくラベル付けをするのは、決して簡単ではありません。 このようなアノテーションの分野に関して当ブログでは以前、Bounding BoxやSegmentationの効率化についての研究サーベイを行いましたが、この犬種分類のような

                              ノイズのある教師データを用いた機械学習に関する研究サーベイ - ABEJA Tech Blog
                            • ABEJAで作った大規模GPTモデルとその道のり - ABEJA Tech Blog

                              1. はじめに 2. そもそもGPTとは?? 3. ABEJAで作ったGPTモデルについて 3.1 モデルサイズ 3.2 データセット Wikipedia CC100 OSCAR mC4 3.3 参考にしたコード 3.4 モデルの学習 せっかくここまで育てたモデルが・・・ 4. 技術的な工夫点 4.1 データセットの前処理 4.2 GPT-neoxの活用 4.3 並列VMでの学習 4.4 モデルアーキテクチャの工夫 5 学習したGPTのアウトプット例 5.1 失敗モデルたちの作品集 5.2 完成モデルの出力例 5.3 少しFine-tuningした結果 6. 最後に 6.1 採用メッセージ 6.2 ABEJAで学習したGPTモデルの今後について 1. はじめに こんにちは、ABEJAの服部です。昨日、ABEJAが主催しているABEJA SIX2022でも発表がありましたが、NVIDIA社の

                                ABEJAで作った大規模GPTモデルとその道のり - ABEJA Tech Blog
                              • "「0.1+0.2≠0.3」だから浮動小数点数を扱うときには気を付けましょう" はいいんだけど結局どうしたらいいのかまでフォローしたほうが親切だと思ったので調べてみた - Qiita

                                "「0.1+0.2≠0.3」だから浮動小数点数を扱うときには気を付けましょう" はいいんだけど結局どうしたらいいのかまでフォローしたほうが親切だと思ったので調べてみたPythonプログラミング初心者数学浮動小数点数 釣られた https://qiita.com/higashi_nc/items/9a5ea00415a008f06843 に釣られて読みました。 2行でまとめると以下のような内容です。 10進数の0.1や0.2は浮動小数点数で表すとピッタリ0.1や0.2にはならずに誤差が出る 浮動小数点数の扱いを理解して、より堅牢なプログラムを作成することを願っています。 え?結局どうしたらいいの?という感想だけ残ったので各言語での浮動小数点数同士の比較の方法を ChatGPT に教えてもらいました。 結局どうしたらいいのか 基本的に浮動小数点数同士の差がある程度の誤差より小さければ同じ数であ

                                  "「0.1+0.2≠0.3」だから浮動小数点数を扱うときには気を付けましょう" はいいんだけど結局どうしたらいいのかまでフォローしたほうが親切だと思ったので調べてみた - Qiita
                                • オープンソースプログラミング言語zigまとめ - Qiita

                                  WebAssemblyのモジュール記述のためのプログラミング言語を調べていると、比較的新しいオープンソースのプログラミング言語zigがWebAssemblyモジュールを書くのに適している感じだったので、ソースコードを書いて動かしながら調べたことについて、コードに出ている順で並べています。 この文章中で用いているソースコードはmacOSやlinux上でビルド可能な状態で以下のURLにおいてあります: https://gist.github.com/bellbind/3c52ea6e506656701c9b7ff00a8599fa Qiitaは現時点でzigコードのシンタックスハイライトに未対応であり視認性がよくないですが、githubではzigコードでもシンタックスハイライトされます。 0. プログラミング言語zigについて オープンソースのプログラミング言語zigは、以下のURLで公開され

                                    オープンソースプログラミング言語zigまとめ - Qiita
                                  • 嘘だろ?深層学習が3Dゲームを再現|shi3z|note

                                    深層学習の世界では時折・・・と言っても、一ヶ月に一回くらいだが・・・信じられないようなことが起きる。 以前、ゲーム画面を見ただけでパックマンやらマリオやらを再現するAIが出現したと聞いたとき、「嘘だろ」と思ったのだが、まあ言うてパックマン。なんとなくできるのかもしれない。 しかしこの手のものはあまりにも直感に反するので自分の手で確かめないと本当かどうかわからない。 そんな時のために僕の仕事机には7台のGPUマシンがあるわけだが、たまたまRTXが遊んでいたので実行してみたら、「嘘だろ」としか言いようがない結果を目の当たりにすることになった。 GTAVこと「グランセフトオートV」は、自動車泥棒になって架空の街を走り回るゲームだ。 こいつをひたすらAIに学習させると、GTAVをAIが再現するという、全く直感に反することが行われるらしい。3Dゲームというのは、それを作った経験のある人なら誰でも、恐

                                      嘘だろ?深層学習が3Dゲームを再現|shi3z|note
                                    • 主成分分析(PCA)の数学的な理論とPythonによる実装

                                      $$ \newcommand{\bm}[1]{\mathbf #1} $$ 主成分分析(PCA)の数学的な理論とPythonによる実装¶ Author: Yuki Takei (noppoMan) Github: https://github.com/noppoMan Twitter: https://twitter.com/noppoMan722 Blog: https://note.com/noppoman これは、noteの主成分分析の背景にある数学理論の話(最適化問題)の本文です。 主成分分析の数学的な理論の理解に必要な知識¶ 主成分分析は、アルゴリズム的な観点で見るとデータの分散を最大化させる最適化問題であり、その理論は数学(とくに微分学、線形代数)により与えられている。以下は、主成分分析で使われる数学の分野をざっくりとリストしたものである。 データ分析 分散、共分散 解析学 多

                                        主成分分析(PCA)の数学的な理論とPythonによる実装
                                      • 金子勇さんのED法のシンプルな解説を試みた - Qiita

                                        はじめに @pocokhc(ちぃがぅ)さんが、金子勇さんのED法を実装してMNISTの学習に成功しました。 金子勇さんの失われたED法 金子勇さんの失われたED法発掘の経緯 ここではちぃがぅさんのコードを元に、ED法をシンプルに解説していきたいと思います。 ED法をわかりやすく解説するため、今入力を(1,0)としたとき(0)を推論するXOR問題を考えてみましょう。 ED法の場合, 入力、重みともに正負(p,n)2つ分の変数を用意する必要があります。 例えば 入力を(1,0)とすると 1 (p) ,1 (n), 0 (p), 0 (n) の4つとバイアス分の2つの p n が必要です。 また, 3層構造として中間層のニューロンをp, n 2つのみとします。 中間層のニューロンを2つとしたときは、 p, n の2つと, バイアス用のp, n の2つが必要です。 中間層のニューロン各々は、そのニ

                                          金子勇さんのED法のシンプルな解説を試みた - Qiita
                                        • 強化学習未経験者がテトリスの AI を作ってみた話

                                          はじめに この度、強化学習によるテトリスの AI を作成してみました。想像以上にうまくいき、最終的には半永久的にラインを消してくれる AI に成長してくれたので、今回はその記録として AI を作成した過程をここに記していきます! 今回の AI の概要 今回作成したテトリス AI の概要は以下の通りです。 特定のゲームの状態から可能な行動パターンを全てシミュレーションする 行動後の状態を入力情報として Neural Network に今後の報酬の期待値を推測させる 今後の報酬の期待値が一番高くなる行動を実際の行動として選択して遷移する (貪欲方策) Game Over になるまで 1 ~ 3 を繰り返す Tetris AI を可視化した図 何も知らない頃は『AI ってどうやって動いてるんだ?』と自分は思っていたんですが、動作原理は非常にシンプルです。強化学習とは、この今後の報酬の期待値を推測

                                            強化学習未経験者がテトリスの AI を作ってみた話
                                          • GPT in 60 Lines of NumPy | Jay Mody

                                            January 30, 2023 In this post, we'll implement a GPT from scratch in just 60 lines of numpy. We'll then load the trained GPT-2 model weights released by OpenAI into our implementation and generate some text. Note: This post assumes familiarity with Python, NumPy, and some basic experience training neural networks. This implementation is missing tons of features on purpose to keep it as simple as p

                                            • SoTAを総なめ!衝撃のオプティマイザー「SAM」爆誕&解説! - Qiita

                                              0. 忙しい方へ SAMは損失が最小かつその周辺が平坦であるようなパラメータを目指すよ SAMは次の3ステップだよ パラメータ$\mathbf{w}$の周辺で最大の損失をとる$\mathbf{w+\hat{\epsilon}(w)}$を求めるよ $\mathbf{w+\hat{\epsilon}(w)}$における損失を求めるよ 2.の損失に対する勾配でパラメータ$\mathbf{w}$を更新するよ SAMは一言で言ってしまえば、「パラメータ周辺での最大の損失を求めて、それが下がる方向でパラメータを更新する」ものだよ ImageNetやCIFARを含む9つの画像分類データセットでSoTAを更新したよ ラベルへのロバスト性も高いよ 1. SAMの説明 SAMは至ってシンプルです。というのも、今までは損失が最小になるパラメータを学習させていました。ただ、SAMは損失が最小かつその周りも平坦となっ

                                                SoTAを総なめ!衝撃のオプティマイザー「SAM」爆誕&解説! - Qiita
                                              • OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog

                                                地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 【IIJ 2022 TECHアドベントカレンダー 12/8(木)の記事です】 Whisperの追加学習に挑む2022年の冬 2022年アドベントカレンダー企画だそうです。 いかがお過ごしでしょうか。 私はもう興味を引くものに没頭するしか楽しみがないもんで、PCに向かってぼんやり面白いネタはないかなーと探す日々です。 最近はすっかりディープラーニングにズブズブで、とうとう数式かくのが面倒なあまり手書き入力のためのペンタブレットを買いました。てへ。 今回は9月から10月にかけてStabl

                                                  OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog
                                                • Stable Diffusionの生成設定まとめ|gcem156

                                                  前回学習設定の記事を書きましたが、しょうもないネタ画像を作るのが面白かったので、生成についても書いていきます。WebUIにある機能を中心に書きますが、実装をみないでフィーリングで理解してる部分もあります。 生成過程について Stable-Diffusionは拡散モデルというもので、完全なノイズからノイズを除去していって画像を生成するとかいいますね。ざっくりと以下のような図で表されます。 一般的な設定 生成法によらない設定から紹介していきます。 解像度Stable-Diffusionの世界の掛け算九九 解像度自体は説明しなくても分かると思いますが、WebUIでは8の倍数の画像しか生成できません。これはVAEが潜在変数を8倍するからです。なんとなく8の倍数以外も生成できるようにするスクリプトを作ってみましたが、どうしても8の倍数以外を生成したいなら、できた画像をちょっと拡大縮小すればいいだけな

                                                    Stable Diffusionの生成設定まとめ|gcem156
                                                  • kaggleで強化学習をやってみた - 機械学習 Memo φ(・ω・ )

                                                    概要 現在、kaggle に Connect X という強化学習の Getting Started コンペ があります。このコンペを通じて強化学習を少し勉強したので、その内容を記載したいと思います。 こちらの書籍をもとに強化学習について理解したことと、Connect Xコンペでの実装を解説した記事になります。間違いがあれば、コメントいただけたら嬉しいです。 bookclub.kodansha.co.jp 強化学習とは 強化学習とは、行動から報酬が得られる環境において、各状況で報酬に繋がるような行動を出力するように、モデルを作成すること。 教師あり学習との違いは連続した行動によって得られる報酬を最大化させるという点です。囲碁を考えた時、ある局面で悪手に見えた一手が、先々進めると実は良い手だった、といった場合のその一手を選択できるようにするのが強化学習になります。 Connect X と強化学

                                                      kaggleで強化学習をやってみた - 機械学習 Memo φ(・ω・ )
                                                    • ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編

                                                      はじめに こんにちは。ELYZAの研究開発チームの佐々木 (@hikomimo)、中村 (@tyo_yo_)、堀江 (@eemon18)、平川 (@h__must__) です。 先日弊社株式会社ELYZAでは以下のようなリリースをさせていただきました。 Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 上記のリリースには、Metaの「Llama 2」をベースとした以下のモデルが含まれます。 日本語追加事前学習済みモデル ELYZA-japanese-Llama-2-7b ELYZA-japanese-Llama-2-7b-fast 上記の事前学習済みモデルに事後学習 (instruction tuning) を実施したモデル ELYZA-japanese-Llama-2-7b-instruct (デモ)

                                                        ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編
                                                      • 強化学習 - 2020論文までの道のり(Q学習中心~R2D3, Agent57) - Qiita

                                                        強化学習の基礎から最近の論文までの道のりを繫ぎたいというモチベーションで,最初は強化学習の基礎の基礎の解説から,Q学習についてR2D3, Agent57あたりまで読んだ論文についてまとめてみました.Actor-Criticについては,Q学習との比較用にA3Cあたりを少しだけ書いています.あと,最後に軽くマルチエージェント強化学習(MARL)とオフライン強化学習(Offline RL)にも触れて紹介しています. 基礎の基礎 強化学習とは? 教師あり学習,教師無し学習に並ぶ,機械学習の一分野. 端的に言うと,エージェントと呼ばれる行動主体が,ある環境のなかで得られる報酬を最大化する最適化問題. ただし,報酬を得るためにどうしたらよいかというのは非自明な場合が多く,また,報酬のみではスパースで扱いにくいので,途中の過程ででてくる状態や,エージェントの行動に価値を付与し,その価値を最大化する問題に

                                                          強化学習 - 2020論文までの道のり(Q学習中心~R2D3, Agent57) - Qiita
                                                        • ベクトル埋め込みの最適化によるアイデンティティを保ったキャラクター生成 Preferred Networks Research & Development

                                                          本記事は、2022年夏季インターンシッププログラムで勤務された早川知志さんによる寄稿です。 はじめまして。2022年度のPFN夏季インターンに参加した早川知志です。普段はオックスフォード大学で数学(確率論・数値解析)の博士学生をしており、確率測度の離散化やそれにまつわる理論や応用に興味があります。 今回は、大学でやっていることとは趣旨を変えて、深層学習のエンターテインメント応用として二次元キャラクターの学習・生成タスクに取り組みました。 学んだキャラクターのCLIP embeddingを用いた生成例 1. Motivation オリジナルのキャラクターを描くときに角度や表情を微調整するのには途轍もない労力が必要です。筆者はイギリスでのロックダウン以来趣味でイラストや漫画を描こうとすることが増えたのですが、その過程でこのことに気付きました。生成モデルの力を借りて今までに描いたことのない構図で

                                                            ベクトル埋め込みの最適化によるアイデンティティを保ったキャラクター生成 Preferred Networks Research & Development
                                                          • カメラにシールを貼るだけでディープラーニングを誤認識させる攻撃方法が登場

                                                            3つの要点 ✔️カメラにシールを貼るだけでディープラーニングを誤認識させることが可能になった ✔️対象物を異なる角度や距離で撮影しても誤認識させられることを動画データで検証 ✔️顔認証用のカメラにシールを貼っておくことでシステムに気づかれずに他人になりすましたりできてしまうかもしれない ディープラーニングによる画像分類は高い性能を誇りますが、画像に摂動を加えるだけで、人間の目ではほぼ違いがないのにディープラーニングが他のカテゴリであると誤認識してしまう adversarial attack という攻撃方法が知られています。 この adversarial attack にどのように対応するかは、実世界でディープラーニングを含んだシステムを運用していく上で重要になるだけでなく、人間の認識とディープラーニングによる認識の違いを理解するのにも重要であり、一つの大きな研究テーマにもなっています。 こ

                                                            • 決定係数について - Qiita

                                                              はじめに 千葉大学/Nospareの米倉です.今回は決定係数について解説したいと思います. 決定係数とは まずは次のような線形回帰モデルを考えます, $$y=X\beta+\epsilon.$$ ここで$y,X,\beta$はそれぞれ,$n$次元の被説明変数のベクトル,$X$は説明変数ベクトルからなる$n\times d$の行列,$\beta$は$d$次元のパラメータのベクトルとし,$\epsilon$は線形回帰分析の際の適当な仮定を満たす確率ベクトル(誤差ベクトル)とし,その分散は$\sigma^2$であるとします.またこの記事では$X$も確率変数だとしますが,定数として扱っても議論の結論などに影響はないです. この時,最小二乗推定量$\hat{\beta}$は,$$\hat{\beta}=(X^{\top}X)^{-1}X^{\top}y$$と適当な仮定の下で求まります.これを用いると

                                                                決定係数について - Qiita
                                                              • 小数点の罠:メンバーシップポイント計算の裏側 - BASEプロダクトチームブログ

                                                                はじめに この記事はBASEアドベントカレンダーの四日目の記事です。 こんにちは!私は@shiiyannnと申します。現在、メンバーシップ Appの開発に携わっています。メンバーシップ Appはショップオリジナルの「メンバーシップ」(会員制度)を作成することができる機能です。 2023年9月、メンバーシップ Appは大幅な機能アップデートを遂げました。今回のアップデートでは、ショップオーナーが商品購入時に独自のポイントを付与できるようになりました。付与されるポイントの量は、注文金額にショップオーナーが設定したポイント付与率を掛け合わせて計算されます。 この記事では、ポイント付与機能の開発中に直面した、浮動小数点計算の問題とその解決策についてお話しします。この問題を深掘りすることで、料率計算や金額処理に取り組む開発者の皆さんに有益な情報を提供できればと考えています。 リリース直前に発見した浮

                                                                  小数点の罠:メンバーシップポイント計算の裏側 - BASEプロダクトチームブログ
                                                                • LLVMの新しい中間言語表現 MLIRを試す(3. MLIRに関する発表資料を読む) - FPGA開発日記

                                                                  MLIRについてもう少し具体的な例を勉強するために、資料を読み込んでいくことにした。 以下の資料を参考にした。Chris Lattnerの所属がSiFiveに変わっているので、比較的最近の資料だ。 docs.google.com MLIRはMulti-Level Intermediate Representation Compiler Ifrastructureの略称である。 2004にLLVMを開発したときの想定構成。1つのIRを用意してすべてを解決する。マルチターゲット、解析、最適化など。 ところがこれだけでは上手く行かなくなった。LLVM-IRだけでなく複数の表現形式を使用する必要がある。現在のLLVM IRでは並列性やループなどの表現形式に問題がある。 Clangも同様。LLVM IRを出力するだけでなく、様々なアノテーションを出力する必要が生じたり、もはやC++の複雑な言語構文を

                                                                    LLVMの新しい中間言語表現 MLIRを試す(3. MLIRに関する発表資料を読む) - FPGA開発日記
                                                                  • Pythonでち◯ち◯をフラクタルにする - Qiita

                                                                    2021.2.15追記 先程運営様より、この記事についての連絡をいただきました。多くの方からの通報があったようです。不快な気分にさせた方々、大変申し訳ありませんでした。 これを受けまして、この記事はあと1週間で見られなくなることになります。修正すれば良いとのことですが、修正点がこの記事の本質なので、修正は諦めました。 美というものは死と隣り合わせに描かれることが数多くあります。桜の樹の下には屍体が埋まっているように、この美しいフラクタルの根本には削除依頼が埋まっていたようです。しかし、消えゆくことこそがまたその美を一段階深くするということもありましょう。いや、消えることそれこそが、美を永遠とする唯一の道かもしれません。ちんフラは、削除されることで初めて、全てがコンテンツ化された現代へのアンチテーゼとして、その本来の美しさを、余すところなく燦然と放つようにも思います。 燃えゆく金閣寺を眺める

                                                                      Pythonでち◯ち◯をフラクタルにする - Qiita
                                                                    • OpenAI Embeddings APIとベクトル検索エンジンValdを使って類似文章検索をしてみよう

                                                                      ベクトルの準備 次にタイトル文章をベクトル化していきます。 OpenAIのアカウントを作成し、こちらからAPIキーを取得し、それを環境変数OPENAI_API_KEYに設定した後、次のコードを実行するだけで、入力文章のベクトルを取得できます。 import os import openai openai.api_key = os.environ["OPENAI_API_KEY"] client = openai.OpenAI() def get_embedding(text, model="text-embedding-ada-002"): text = text.replace("\n", " ") return client.embeddings.create(input=[text], model=model).data[0].embedding get_embedding("入力し

                                                                        OpenAI Embeddings APIとベクトル検索エンジンValdを使って類似文章検索をしてみよう
                                                                      • 統計学と機械学習におけるマルチコ(多重共線性)に対する考えの相違

                                                                        先日、デスマーチの末なんとか機械学習案件のリリースに漕ぎ着けました。 今回の案件に関わらないですが、要件や仕様はしっかり明文化しておくべきですね。 後から(特にリリース間近になって)言った言わないの議論になるのは双方にとってあまり気持ちのいいものではありません。 些細な仕様変更のため口頭で合意した内容でも、しっかりと資料化しておくことの重要さを再認識しました。 さて、今回はマルチコ(多重共線性)について投稿します。 クライアント先で多変量解析をしているときにこの話題が出たので、いろいろと調べてみました。 大学では統計学視点でのマルチコを若干勉強したのですが、この機会に再度勉強し直してみたのでまとめます。 マルチコ(多重共線性)とはマルチコとは、重回帰モデルにおいて説明変数間に強い相関がある事象のことをいいます。 マルチコはmulti-colinearlity(マルチ-コリニアリティ)の略称

                                                                          統計学と機械学習におけるマルチコ(多重共線性)に対する考えの相違
                                                                        • TensorFlowとPyTorchの相互変換はどうやるか 機械学習の困りごとに使える重み変換のテクニック

                                                                          「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。rishigami氏は、TensorFlow/PyTorchのモデル移植について発表しました。全2回。前半は、TensorFlow、PyTorchそれぞれのモデル実装の基礎と、それぞれの違い、重み変換のテクニックについて。 フレームワークにまつわる、ありがちな困りごと 石上氏:今回は「TensorFlow/PyTorchモデル移植のススメ」というタイトルで発表します。 あらためて自己紹介ですが、私は石上と申します。ハンドルネームは「rishigami」でやっていて、Kaggleでは現在Competitions Masterとなっています。ただ最近はちょっと忙しくて、Kaggleに参加できておらず、つい最近NFLコンペが開催された(※取材当時)ということで、ちょっとそ

                                                                            TensorFlowとPyTorchの相互変換はどうやるか 機械学習の困りごとに使える重み変換のテクニック
                                                                          • イプシロンロケット6号機打ち上げ失敗の原因は第2段の姿勢制御装置の異常

                                                                            【▲ 内之浦宇宙空間観測所から打ち上げられたイプシロンロケット6号機。JAXAのライブ配信より(Credit: JAXA)】宇宙航空研究開発機構(JAXA)は10月18日、第41回宇宙開発利用部会・調査・安全小委員会にて、「イプシロンロケット」6号機打ち上げ失敗の原因調査について最新の状況を報告しました。 イプシロンロケット6号機は内之浦宇宙空間観測所から日本時間2022年10月12日9時50分に打ち上げられましたが、燃焼を終えた第2段と第3段の分離可否を判断する時点で機体の姿勢が目標からずれていて、衛星を地球周回軌道に投入できないと判断されたため飛行を中断。同日9時57分11秒に指令破壊信号が送信されて、打ち上げは失敗しました。 指令破壊された6号機の機体は、フィリピン東方の海上にあらかじめ計画されていた第2段の落下予想区域内に落下したとみられています。イプシロンロケットは1号機(201

                                                                              イプシロンロケット6号機打ち上げ失敗の原因は第2段の姿勢制御装置の異常
                                                                            • イプシロンSロケット第2段モータ地上燃焼試験 / Epsilon S rocket 2nd stage motor firing test

                                                                              JAXA 能代ロケット実験場 試験予定日時 2023年7月14日 11:00 → 9:00 ※風向が条件を満たすまで夕方まで待機の可能性あり ※気象条件により時間が変更になる場合があります。 速報はtwitterでお知らせします。http://twitter.com/nvslive 【大気圧試験用 短ノズル仕様】 固体推進薬   コンポジット推進薬 真空中推力   約560 kN 比推力     267.3 s 固体推進薬量  約18 ton 全長      3.2 m 直径      φ2.5m 燃焼時間    約120秒 ノズル駆動方式 TVC NVSの映像をアフィリエイト目的やジャンクコンテンツに使用する事は禁止します。 発見次第、盗用として報告します YouTubeやその他の動画サイトで使用する場合はクレジットと併せて引用元URLを明記してください。 クレジットを明記せず他の

                                                                                イプシロンSロケット第2段モータ地上燃焼試験 / Epsilon S rocket 2nd stage motor firing test
                                                                              • NGBoostを読んで、実装する。 - nykergoto’s blog

                                                                                不確実性を考慮した予測が可能と噂の NGBoost の論文を読んでみたので、全体のながれをまとめて見ました。加えて自分でも NGBoost を実装して、その結果を載せています。 元の論文 NGBoost: Natural Gradient Boosting for Probabilistic Prediction はこちら https://arxiv.org/abs/1910.03225。 Introduction 一般的な教師あり学習を考えます。このとき予測モデルは入力データ $X$ に対して予測値 $y$ を出力するように学習していきますが、たいていのモデルではひとつのデータに対しては予測値はひとつしか得ることができません。 例えばウェブ上の行動履歴から、ユーザーの年齢を予測してください、という問題があったとすると、ユーザーの期待される年齢そのものを返すようなモデルがそれに当たります。

                                                                                  NGBoostを読んで、実装する。 - nykergoto’s blog
                                                                                • ついにAdamを超えた!最新の最適化アルゴリズム「RAdam」解説 - Qiita

                                                                                  オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 最新の最適化アルゴリズムRAdam ニューラルネットワークは画像認識や自然言語処理など多方面で使われており、おもしろいことにも使うことができます。そんなニューラルネットワークが高い精度を出すためには、優秀な最適化アルゴリズムが必要不可欠です。最適化アルゴリズムとして現在デファクトスタンダードとなっているのがAdamです。Adamが登場したのは2014年のことですが、そこからAdamに取って代わるような最適化アルゴリズムは久しく出ていません。そんな現状をとうとう変えると期待されている新しい最適化アルゴリズムの論文が国際学会ICLR2020に採択されました。その名もRectified Adam、通称RAda

                                                                                    ついにAdamを超えた!最新の最適化アルゴリズム「RAdam」解説 - Qiita