並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 33 件 / 33件

新着順 人気順

randint 使い方の検索結果1 - 33 件 / 33件

  • 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita

    追記: U-Netの中間層は常にSelf-Attentionとなります。ご指摘いただきました。ありがとうございます。(コード) オミータです。ツイッターで人工知能のことや他媒体の記事など を紹介しています。 @omiita_atiimoもご覧ください! 世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! 未来都市にたたずむサンタクロース(Stable Diffusionで生成) 2022年8月、世界に大きな衝撃が走りました。それは、Stable Diffusionの公開です。Stable Diffusionは、テキストを受け取るとそれに沿った画像を出力してくれるモデルです1。Stable Diffsuionは10億個近いパラメータ数をもち、およそ20億個の画像とテキストのペア(LAION-2B)で学習されています。これにより、Stable Diffusionは入

      世界に衝撃を与えた画像生成AI「Stable Diffusion」を徹底解説! - Qiita
    • Pythonでリトライ処理を簡単に追加できる「tenacity」を使ってみる | DevelopersIO

      今回はPythonで簡単にリトライ処理を追加できる「tenacity」を使ってみます。 デコレータ形式で簡単にリトライ処理を追加できるので便利です。 tenacityについて プログラムを書いていて、HTTPの通信などでリトライ処理を実装する機会は多いと思います。 今回はそんなリトライ処理を簡潔に書けるtenacityの使い方を説明します。 インストール インストールはpipで可能です。 インストール pip install tenacity 使い方 シンプルな例 シンプルな例 import random from tenacity import retry @retry def random_error(): num = random.randint(0, 10) if num > 4: print(f"Error: num={num}") raise Exception("Error!

        Pythonでリトライ処理を簡単に追加できる「tenacity」を使ってみる | DevelopersIO
      • たった数行でpandasを高速化する2つのライブラリ(pandarallel/swifter) - フリーランチ食べたい

        pandas はデータ解析やデータ加工に非常に便利なPythonライブラリですが、並列化されている処理とされていない処理があり、注意が必要です。例えば pd.Sereis.__add__ のようなAPI(つまり df['a'] + df['b'] のような処理です)は処理が numpy に移譲されているためPythonのGILの影響を受けずに並列化されますが、 padas.DataFrame.apply などのメソッドはPythonのみで実装されているので並列化されません。 処理によってはそこがボトルネックになるケースもあります。今回は「ほぼimportするだけ」で pandas の並列化されていない処理を並列化し高速化できる2つのライブラリを紹介します。同時に2つのライブラリのベンチマークをしてみて性能を確かめました。 pandarallel pandaralell はPythonの m

          たった数行でpandasを高速化する2つのライブラリ(pandarallel/swifter) - フリーランチ食べたい
        • Python関連記事まとめ | note.nkmk.me

          環境情報・設定 Pythonのバージョンを確認、表示(sys.versionなど) Pythonが実行されている環境のOSやバージョン情報などを取得 カレントディレクトリを取得、変更(移動) 実行中のファイルの場所(パス)を取得する__file__ 環境変数を取得・追加・上書き・削除(os.environ) 再帰回数の上限を確認・変更(sys.setrecursionlimitなど) コードの書き方・ルール Pythonはインデント(スペース4文字)でブロックを表す 識別子(変数名など)として有効・無効な名前、命名規則 キーワード(予約語)一覧を確認するkeyword 長い文字列を複数行に分けて書く メソッドチェーンを改行して書く pip(パッケージ管理) パッケージ管理システムpipの使い方 pipでrequirements.txtを使ってパッケージ一括インストール pip list /

            Python関連記事まとめ | note.nkmk.me
          • kaggleで強化学習をやってみた - 機械学習 Memo φ(・ω・ )

            概要 現在、kaggle に Connect X という強化学習の Getting Started コンペ があります。このコンペを通じて強化学習を少し勉強したので、その内容を記載したいと思います。 こちらの書籍をもとに強化学習について理解したことと、Connect Xコンペでの実装を解説した記事になります。間違いがあれば、コメントいただけたら嬉しいです。 bookclub.kodansha.co.jp 強化学習とは 強化学習とは、行動から報酬が得られる環境において、各状況で報酬に繋がるような行動を出力するように、モデルを作成すること。 教師あり学習との違いは連続した行動によって得られる報酬を最大化させるという点です。囲碁を考えた時、ある局面で悪手に見えた一手が、先々進めると実は良い手だった、といった場合のその一手を選択できるようにするのが強化学習になります。 Connect X と強化学

              kaggleで強化学習をやってみた - 機械学習 Memo φ(・ω・ )
            • クラスタリングタスクで機械学習の流れを体験

              はじめに おはようございます。こんにちは。こんばんは。 GMOアドマーケティングのY-Kです。 今回は機械学習への足がかりとなるような記事を書きたいと思ったので、クラスタリングタスクを通して機械学習の流れを大雑把に書いていこうと思います。 機械学習における基本的な データ分析 -> 予測 -> 評価の流れを体験しつつ、読んでいる間に気になるところがあればそこを深掘りしていくなど、機械学習への興味/勉強の第一歩としていただければと思います。 クラスタリングとは クラスタリングは機械学習における教師なし学習の一種で、データの類似度でデータをグループ(クラスタ)分けする手法のことを指します。 データに対して答えが存在する教師あり学習とは異なり、各データに答えがない状態で学習されるので、クラスタリングによってまとめられたデータのグループが何を示しているのかは解釈が必要となります。 しかしその分、ク

                クラスタリングタスクで機械学習の流れを体験
              • wav2vec 2.0 を使って 手軽に音声認識モデルを触れるようになろう - NTT Communications Engineers' Blog

                この記事は NTTコミュニケーションズ Advent Calendar 2021 の20日目の記事です。 はじめに こんにちは。プラットフォームサービス本部アプリケーションサービス部の是松です。 NTTコミュニケーションズでは自然言語処理、機械翻訳、音声認識・合成、要約、映像解析などのAI関連技術を活用した法人向けサービスを提供しています。(COTOHA シリーズ) NTTコミュニケーションズがこのようなAI関連技術を活用したサービスを展開する強みとして、 NTT研究所の研究成果が利用可能であること 自社の他サービスを利用しているお客様に対してシナジーのあるサービスを提案できること この2点が挙げられると思います。 実際に、私が担当している COTOHA Voice Insight は 通話音声テキスト化によってコンタクトセンターの業務効率化・高度化を実現するサービスなのですが、 NTT研

                  wav2vec 2.0 を使って 手軽に音声認識モデルを触れるようになろう - NTT Communications Engineers' Blog
                • DALL-E in Pytorch の使い方|npaka

                  以下の記事が面白かったので、ざっくり翻訳しました。 ・lucidrains/DALLE-pytorch: Implementation / replication of DALL-E, OpenAI's Text to Image Transformer, in Pytorch 1. DALL-E in Pytorch 「DALL-E in Pytorch」は、OpenAIのText-to-Image Transformerである「DALL-E」(論文)のPyTorch実装/複製です。生成画像をランク付けするための「CLIP」も含まれます。 Eleuther AIのSid、Ben、Aranは、「DALL-E for  Mesh Tensorflow」に取り組んでいます。 DALL-EがTPUで学習されるのを見たい場合は、彼らに手を貸してください。 2. 状態Hannuは、わずか2000枚の

                    DALL-E in Pytorch の使い方|npaka
                  • 数理最適化の練習問題をLLMを使って自動生成する

                    この記事は、数理最適化 Advent Calendar 2023 23日目の記事です。LLMと数理最適化を組み合わせた何かをつくろうということで、数理最適化の練習問題を生成する GPTs、Optima Practiceを作りました。 数理最適化のコミュニティCasual Optimizationを運営していく中で、「数理最適化が世の中に広まらない要因の一つに実践的な練習問題の不足があるのではないか?」という意見を知りました。数理最適化を実ビジネスで利用していく上で必須のスキルとして定式化がありますが、たしかに定式化の力をつけるのにちょうど良い、程よく実践的で複雑な練習問題は案外少ないです。しかし、練習問題を作成するのは結構大変です。そこで、LLMを使って自動化できないか、というのが本取り組みの趣旨になります。 作ったもの Optima Practice は、数理最適化の練習問題を生成する

                      数理最適化の練習問題をLLMを使って自動生成する
                    • 機械学習を利用するコンポーネントの継続的な性能検証と Locust を利用した負荷テストの実施方法 - DATAFLUCT Tech Blog

                      こんにちは。本稿では機械学習を利用したコンポーネントの処理速度の計測方法、および負荷テストのやり方について解説してゆきます。 機械学習を利用するコンポーネントの処理速度を計測する必要性 機械学習アルゴリズムを適用する関数の処理速度を検証 実行時間を測定 関数の実行時間を算出するデコレーター 性能評価テストと継続的な性能チェック 機械学習 API の性能を評価する Locust:インストールと負荷テスト設定追加 Locsutを使った測定測定 もうすこし高度な使い方 分散実行 コマンドラインから実行 まとめ 機械学習を利用するコンポーネントの処理速度を計測する必要性 機械学習を利用したタスクでは、モデルの精度に注意が行きがちです。しかし、一般的なWebアプリケーションでは入力はリソースID(ユーザIDなど)やシンプルなJSONである場合が多いのに対し、機械学習は入データ(自然言語や画像など)や

                        機械学習を利用するコンポーネントの継続的な性能検証と Locust を利用した負荷テストの実施方法 - DATAFLUCT Tech Blog
                      • 【スターターキットNo.1】Scrapy&MariaDB&Django&Dockerでデータ自動収集ボットシステムを構築する - Qiita

                        【スターターキットNo.1】Scrapy&MariaDB&Django&Dockerでデータ自動収集ボットシステムを構築するPythonDjangomariadbDockerScrapy 背景 世の中にあるWebサービスのデータベースを自動で同期して、本家にはない付加価値をつけることによって、手軽にニーズのあるWebサービスを作ることができます。 例えばECサイトのデータをスクレイピングして自前でデータベースとして持っておき、それに対して本家にはない検索方法を提供して、リンクを貼り、アフィリエイトで稼ぐみたいな軽量なビジネスモデルが個人事業のレベルで可能です。 このようなパターンはいくらでも考えられるのですが、とにかくまずはスクレイピングスクリプトを書いて、自動でデータ収集して、きちんと構造化して、それをなるべく最新の状態に保てるようなボットとインフラが必要になるわけです。今回はどのような

                          【スターターキットNo.1】Scrapy&MariaDB&Django&Dockerでデータ自動収集ボットシステムを構築する - Qiita
                        • はじめての自然言語処理 OSS によるテキストマイニング | オブジェクトの広場

                          前回はグラフベースのキーフレーズ抽出手法と pke での実験結果を紹介しました。今回は、spaCy, scattertext, ... 等々の OSS を用い各種のテキストマイニング手法についてコード例とサンプルプロットを交えながら説明したいと思います。 1. はじめに 本記事ではテキストマイニングの概要と代表的な手法について、コード例とサンプルプロットを交えて説明します。分析対象には、この連載で何度か用いている livedoor ニュースコーパスを用い、Google Colaboratory で動かすことを想定したコードスニペットを入れていきますので、実際に動かしたり対象を変えてみたりして試して頂けると良いかと思います。 2. テキストマイニングとは テキストマイニングとは、ざっくり言うと「自然言語の文書データを対象に使用される単語の出現傾向等を分析して何らかの有益な情報を取り出すこと」

                            はじめての自然言語処理 OSS によるテキストマイニング | オブジェクトの広場
                          • Python競プロライブラリの整理をする - 菜

                            (19/11/22 追記) 一応最新のはgithubに上げてる github.com そのうち整理されるかもしれないので個別のページへのリンクを貼ったりするのはやめといたほうがいいかも この記事は何 PyCharmに常に貼ってたライブラリが長くなりすぎて整理する必要が出てきた 使わなくなったライブラリを消すのが何となくもったいないので公開してから消す ついでに競プロライブラリを共有する 前置き この記事のコードは公開を前提に書いたわけじゃないので、Python競プロライブラリを探しているならまず↓のサイトを見るといいと思う アルゴリズム [いかたこのたこつぼ]  DTMでもよくお世話になりました 実装メモ (Python) - yaketake08's 実装メモ ライブラリ整理 拡張ユークリッド互除法・中国剰余定理 拡張ユークリッド互除法 # 拡張ユークリッド互除法 # gcd(a,b)

                              Python競プロライブラリの整理をする - 菜
                            • オレオレFuzzerもどきを利用してCTFのpwnableを解こう - CTFするぞ

                              はじめに Fuzzingの概念 なぜ自分でFuzzerを書くのか 実際に問題を解く dual - ユーザーランドプログラムのFuzzing Step 1. Fuzzerの方針を立てる Step 2. テストケースを最適化する Step 3. 問題を解く spark - カーネルドライバのFuzzing Step 1. Fuzzerの方針を立てる Step 2. 再現性のあるテストケースを見つける Step 3. 問題を解く atoms - カーネルドライバのFuzzing(マルチスレッド) Step 1. Fuzzerの方針を立てる Step 2. 問題を解く cgi - CGIのFuzzing Step 1. Fuzzerの方針を立てる Step 2. 解きたい telescope - Fuzzingの結果から攻略法を考え直す Step 1. Fuzzerの方針を立てる Step 2.

                                オレオレFuzzerもどきを利用してCTFのpwnableを解こう - CTFするぞ
                              • 知名度がいまいち分かってないNextDPというテクニックについて - Qiita

                                はじめに コード上では変数名としてNDPであったりNextDPと名付けられやすいものです。 正式な名称はよく分かっていないですし、解説されたことがあるのかすら分かっていないテクニックなのですが、どの層でも役に立つもので、使い方やメリットを整理しておこうと思いました。 説明はPythonで行います。ChatGPT-4を使用してC++やRustに置き換えてもらっても動作したので、基本的には別の言語でも使用できるテクニックのはずです。 使い方について まずは基本的なナップサック問題とそのコードを記載します。 実行速度の差をみたいため制約はすこし大きめです。 問題 $N$ 個の品物があります。それぞれ重さが $w_i$, 価値が $v_i$ です。 重さの総和が $W$ を超えないように選んだ時の価値の総和の最大値を求めなさい。 制約 $1 \le N \le 10000$ $1 \le W \l

                                  知名度がいまいち分かってないNextDPというテクニックについて - Qiita
                                • pycを読む(アセンブリ味) - 拾い物のコンパス

                                  pycファイルだけが手元にあり,なにが書いてあるか読みたいときがある. pycのバイトコードは逆アセンブルして読める. やり方と例文をまとめる. ただし,これは低レベルな命令になるから可読性は良くない. 直接pythonコードにまで戻す方法があるから,そっちを使ったほうが良い. 厳密な仕様までは調べてないから,間違いはあるかも.指摘歓迎. 環境 各種バージョン 以下のとおり. $ uname -a Linux poppycompass 4.18.6-arch1-1-ARCH #1 SMP PREEMPT Wed Sep 5 11:54:09 UTC 2018 x86_64 GNU/Linux $ python2 Python 2.7.15 (default, Jun 27 2018, 13:05:28) [GCC 8.1.1 20180531] on linux2 Arch Linuxの6

                                    pycを読む(アセンブリ味) - 拾い物のコンパス
                                  • Python: TFRecord フォーマットについて - CUBE SUGAR CONTAINER

                                    TFRecord フォーマットは、TensorFlow がサポートしているデータセットの表現形式の一つ。 このフォーマットは、一言で表すと TensorFlow で扱うデータを Protocol Buffers でシリアライズしたものになっている。 特に、Dataset API との親和性に優れていたり、Cloud TPU を扱う上で実用上はほぼ必須といった特徴がある。 今回は、そんな TFRecord の扱い方について見ていくことにする。 使った環境は次のとおり。 $ sw_vers ProductName: macOS ProductVersion: 11.5 BuildVersion: 20G71 $ python -V Python 3.9.6 $ pip list | grep -i tensorflow tensorflow 2.5.0 tensorflow-datasets

                                      Python: TFRecord フォーマットについて - CUBE SUGAR CONTAINER
                                    • Pytorch tensor と numpy ndarray の変換 - Pythonいぬ

                                      Pytorch tensor から numpy ndarray への変換とその逆変換についてまとめる。単純にtorch.from_numpy(x)とx.detach().numpy()を覚えておけばよいので、その使い方を示しておく。 すぐ使いたい場合は以下 numpy to tensor x = torch.from_numpy(x.astype(np.float32)).clone() tensor to numpy x = x.to('cpu').detach().numpy().copy() pytorchでは変数の型としてほとんどtorch.floatを使うので、基本的にはnumpyでnp.float32にキャストしてからtorch tensorへ変換する。また、torch tensor と numpy ndarray はメモリを共有しているようなので、clone()やcopy()

                                        Pytorch tensor と numpy ndarray の変換 - Pythonいぬ
                                      • 子問題に連続変数が現れる問題における列生成法的アプローチ - Insight Edge Tech Blog

                                        $\def\R{{\mathbb R}}$ $\def\N{{\mathbb N}}$ $\def\B{\{0, 1\}}$ Insight Edgeのデータサイエンティストのki_ieです。今日は最近勉強した数理最適化関連の技術を紹介します。 はじめに 本記事では、混合整数計画(MIP)問題に対する列生成法の発展的な使い方を紹介します。列生成法は巨大な線形計画(LP)問題を解くための厳密解法です。列生成法の有名な応用先として、多数の子問題と少数の子問題をまたぐ制約とに分解できるMIP問題のヒューリスティック解法があります。本記事では、このヒューリスティック解法を典型的なユースケースから少し拡張して利用する(具体的には、子問題に連続変数が登場するような場合でも利用できるように拡張する)方法を考えます。 本記事の構成は以下の通りです。 列生成法 : 列生成法について簡単に説明します。 列生成

                                          子問題に連続変数が現れる問題における列生成法的アプローチ - Insight Edge Tech Blog
                                        • じゃんけんゲームの作り方① (リスト・乱数・モジュールインポート)  Let's Python 6(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)

                                          こんにちは〜 Python誠です。 前回、IDLE・エディタウィンドウの使い方(新規ファイル保存・実行)の最後に「モンスターじゃんけん①」という5行ほどのPythonプログラムを打ち込んで、ファイルに保存・実行しました。 今回はまず、「モンスターじゃんけん①」のPythonコードについてかんたんに解説します。 その後、じゃんけんプログラムをバージョンアップしていきたいと思います。 「じゃんけん」プログラムの解説 「モンスターじゃんけん①」 import random jan = ["グー", "チョキ", "パー"] m = random.randint(0, 2) monster = jan[m] print("モンスター: " + monster) 1行目をから順番に確認していきましょう。 1行目: モジュールをインポート import random import は、Pythonに足

                                            じゃんけんゲームの作り方① (リスト・乱数・モジュールインポート)  Let's Python 6(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)
                                          • Pythonの標準ライブラリ3つだけでぷよぷよもどきを作ってみた - Qiita

                                            以下の動画内で高速でパズルゲームを作り上げていることに触発されて、 私もPython3の標準ライブラリのみを使ってぷよぷよもどきを作ってみました。 パズドラを小一時間で作ってみた【プログラミング実況】Programming Match-Three Game - YouTube ロジックをとてもとてもとても参考にさせてもらっています。(一部まんま同じ箇所があります) 動画内ではC++でコーディングしていたのですが、 私が好きなPythonならもっと簡単に書けるのではないかと思い作ってみました。 記事の後半でコードを全て公開しています。 どんなゲーム作ったの?? とりあえず動いているところを見てもらいましょう。 このゲームの特徴は以下です。 ボード内の二箇所を選択すると選択された箇所のブロックが交換される 交換された結果、3つ以上同じ色でつながっているブロックは削除する 削除されたブロックの箇

                                              Pythonの標準ライブラリ3つだけでぷよぷよもどきを作ってみた - Qiita
                                            • じゃんけんゲームの作り方② (引数・戻り値・整数変換)  Let's Python 7(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)

                                              こんにちは〜 Python誠です。 前回に続いてじゃんけんゲームを解説していきます。 「じゃんけんプログラムの解説」 # 「モンスターじゃんけん②」 import random jan = ["グー", "チョキ", "パー"] # プレーヤー print("0:グー 1:チョキ 2:パー") p = int(input("じゃんけん・・・")) player = jan[p] print("プレーヤー: " + player) # モンスター m = random.randint(0, 2) monster = jan[m] print("モンスター: " + monster) まず、1行目をみてください。 1行目: コメント欄の挿入 # 「モンスターじゃんけん②」 半角のシャープ # はコメント欄なので、# より右の文字は実行されません。 7行目からを # プレーヤー 部分 と 13行

                                                じゃんけんゲームの作り方② (引数・戻り値・整数変換)  Let's Python 7(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)
                                              • 【Swallow on mistral】日本語最強の性能を叩き出す70億パラメーター国産LLMを使ってみた | WEEL

                                                WEELメディア事業部LLMリサーチャーの中田です。 3月11日、日本語特化型の大規模言語モデル「Swallow on mistral(Swallow-MS 7B, Swallow-MX 8x7B)」を、東京工業大学の岡崎研究室と横田研究室、産業技術総合研究所の研究チームが公開しました。 このモデルは、「Mistral 7B」と「Mixtral 8x7B」の日本語能力が強化されたものなんです! Xでの投稿のいいね数は、国内だけですでに300を超えており、注目されていることが分かります。 大規模言語モデルSwallow-MS 7BとSwallow-MX 8x7Bを公開しました。東京工業大学の岡崎研究室と横田研究室、産業技術総合研究所の研究チームでMistral 7BとMixtral 8x7Bの日本語能力を引き上げました。Swallow-MS 7Bはオープンな7BのLLMの中で日本語最高性能を

                                                • 【Python入門】randomモジュールの使い方まとめ | 侍エンジニアブログ

                                                  randomモジュールの使い方 randomモジュールの応用的な使い方</li randomモジュールで文字列を生成する方法 などといった基本的な内容から、より実践的な内容に関してもやさしく解説していきたいと思います。 ※ この記事のコードはPython 3.7で動作確認しました。 本記事を読む前に、Pythonがどんなプログラミング言語なのかをおさらいしておきたい人は次の記事を参考にしてください。 → Pythonとは?特徴やできること、活用例をわかりやすく簡単に解説 なお、その他のPythonの記事についてはこちらにまとめています。 randomモジュールとは randomモジュールは、Pythonでランダムな処理が必要な場合に活躍する標準モジュールです。ランダムな要素や乱数を使う操作などはとても便利なので、覚えておいて損はありません。ちなみに乱数とは、サイコロを投げたときのようにどの

                                                    【Python入門】randomモジュールの使い方まとめ | 侍エンジニアブログ
                                                  • 設備機器の稼働データを SiteWise ゲートウェイを使って OPC UAプロトコルで AWS IoT SiteWise へ送ってみた | DevelopersIO

                                                    設備機器の稼働データを SiteWise ゲートウェイを使って OPC UAプロトコルで AWS IoT SiteWise へ送ってみた 今回は、AWS IoT SiteWise の基本的な使い方を確認してみました。 AWS IoT SiteWise を使うと、OPC-UA や Modbus TCP、Ethernet/IP といった製造機器間の通信に使われる産業用プロトコルで機器のデータを AWS に送信したり、データを蓄積・分析・可視化することができるようになります。 全体の構成 想定する環境 今回作成する環境は、以下のような製造現場の環境を模したものになります。 作成する環境構成 上記の環境を次のような構成で AWS 上に作成します。 実機としての PLC などは無いので 「仮想 OPC UA サーバ」 上で擬似的にデータを生成します。「仮想 OPC UA サーバ」は IoT ゲートウ

                                                      設備機器の稼働データを SiteWise ゲートウェイを使って OPC UAプロトコルで AWS IoT SiteWise へ送ってみた | DevelopersIO
                                                    • ゼロからはじめるPython(100) AI頼みで作る迷路ゲーム - GPT搭載のCopilotを試した件

                                                      最近、生成系AIと呼ばれる技術が話題となっている。ChatGPTやStable DiffusionなどのAIでは文章で指示を入力することで、指示に沿った画像、文章、プログラムなどを生成することができる。そこで、今回はGitHub Copilotを利用して、迷路ゲーム作りに挑戦してみよう。どれだけ楽ができたか楽しみにして欲しい。 GitHub Copilotで作成した迷路ゲーム 果たしてAIはプログラマーの相棒となり得るか? - GitHub Copilotを使ってみよう 先日、姉妹連載のJavaScript連載(こちら)にて、ChatGPTを利用して電卓アプリを作ってみた。ChatGPTは汎用用途で利用できるAIであるが、それなりに質の良い精度のプログラムを作成することができた。そこで今回は、よりプログラミングに特化したAIを使ってみたいと思う。果たしてAIはプログラマーの相棒となり得るの

                                                        ゼロからはじめるPython(100) AI頼みで作る迷路ゲーム - GPT搭載のCopilotを試した件
                                                      • Python Pandas データ前処理 個人メモ - Qiita

                                                        この記事についての注意 この記事は、下記のブログにリライト中なのでできればそちらを見ていただければと思います。 前処理とは? 蓄積したデータを、目的の作業(機械学習など)をするために、綺麗にしたり、加工したりすること。 機械学習を行う方々は、データ収集作業とあわせて この作業に1番の作業時間を使っているらしい。 前処理を学習する上で登場する言葉 データクレンジング データクリーニングと同義。多分「前処理」の中の一部の作業を指す。 データクリーニング データクレンジングと同義。 データラングリング 上の2つよりは広義。多分「前処理と同義」か、「前処理を内包」している。 前処理のフロー 下記のようなことを行う。もっと効率的な順序があるかもしれないし、もっと細かい作業もある。 事前分析 データの情報量、状態などをチェックする。 クリーニング 列名の変更 表記揺らぎのチェック 重複行のチェック 欠

                                                          Python Pandas データ前処理 個人メモ - Qiita
                                                        • IDLE・エディタウィンドウの使い方【2020年版】(新規ファイル作成・保存・実行方法)  Let's Python 5(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)

                                                          こんにちは〜 Python誠です。 前回までは Pythonのインストール方法 統合開発環境・IDLEの環境設定方法 IDLE・シェルウィンドウの使い方 をみてきました。 今回は、IDLEのエディタウィンドウを使ってPythonプのログラムファイルを作成し、実行する方法を説明します。 新規ファイルを作成 まずは、Pythonコードを記述する為の新規ファイルを作成しましょう。 メニューの[ File ] → [ New File ] をクリックしてください。 (ショートカットは「 command + N 」です。) すると、画面いっぱいに黒いウィンドウが現れます。 これが、エディタウィンドウといってPythonコードを書いていく画面です。 ウィンドウ名が「 Untitled(無題) 」になっているので、ファイル名を新たにつけていきましょう。 ファイルに名前をつけて保存 メニューの[ File

                                                            IDLE・エディタウィンドウの使い方【2020年版】(新規ファイル作成・保存・実行方法)  Let's Python 5(初級編) - Pythonでレトロゲームをつろう!!(佐藤 誠 の あくまでも独り言)
                                                          • Python(pandas、NumPy、scikit-learnなど)によるデータの前処理大全

                                                            普段、筆者がデータの前処理で使っているpandasやNumPy、scikit-learnなどのモジュールの使い方を逆引きのリファレンス形式でまとめました。 一部のサンプルデータや前処理の手法については、データサイエンティスト協会の100本ノック(構造化データ加工編)を参考にさせていただきました。素晴らしいコンテンツをご用意頂いたこと本当に感謝します。 それでは、以下のモジュールをインポートして、この記事をデータ前処理時の辞書代わりにして利用してください。 モジュールのインポート import numpy as np import pandas as pd from sklearn import preprocessing as pp from sklearn.model_selection import train_test_split from imblearn.under_sampli

                                                              Python(pandas、NumPy、scikit-learnなど)によるデータの前処理大全
                                                            • ChatGPTの面白い使い方:CSVデータの処理をしてもらう(1) - シロッコの青空ぶろぐ

                                                              作者: とりすたー ランキング参加中GPT 目次 テーブルのデータを処理したい ChatGPT はCSVデータの処理ができるのか Pythonを経由しないで処理したい CSVデータのテキストを処理してもらう 年齢順に出力して テキストを送信する場合、何件くらいまで処理できるのか 20歳以下を出力して テスト用CSVデータを作る 今回わかったこと 同姓同名対策 テーブルのデータを処理したい ちょっとしたテーブルのデータを処理したい。 手作業は面倒です。少し件数が多くなったら手に負えません。 テキストに grep を掛けて探すとか、もうちょっと面倒な作業があったらどんなツールを使えばいいだろうか? PostgreSQL は昔使っていたからなんとかなるかも・・・とMacBook Air にPostgreSQLをインストールしました。 しかし、風呂に入っている間に、ChatGPT はCSVデータの

                                                                ChatGPTの面白い使い方:CSVデータの処理をしてもらう(1) - シロッコの青空ぶろぐ
                                                              • JPEG画像を何回も保存し直すとどんどん劣化していく……のか、ChatGPTと試す - nomolkのブログ

                                                                JPEGは画像を小さい容量で保存できるファイル形式ですが、非可逆圧縮といって圧縮前の状態に戻せない性質を持つため、保存した画像を開くと画質が劣化しています。 ということは、画像をJPEGで保存→開く→新しく保存→開く→新しく保存…を繰り返すとどんどん劣化していくのではないかと思って、調べてみました。 実は検索してみると同様の検証はすでにたくさんされているのですが、最近ChatGPTを有料版にして使い道に飢えていたので、一緒に検証してみたいと思います。 ChatGPTにやり方を訊く JPEGを何度も保存し直し、できた画像を動画で見られると面白いのではないかと思いました。初手からChatGPTに訊いてみます。 ※自分が使っているChatGPTと違う……と思った方はこちらをご覧ください。→AIお姉ちゃんへの道 - nomolkのブログ 動画化はffmpegでやればいいそうです。たしかに。 でも画

                                                                  JPEG画像を何回も保存し直すとどんどん劣化していく……のか、ChatGPTと試す - nomolkのブログ
                                                                • 【勉強メモ】AutoGPTはもう古い!?AIとAIを会話させるCAMELが超便利。使い方や設定|だいち

                                                                  ! git clone https://github.com/lightaime/camel.git %cd camel/ ! pip install -e .このコードは、GitHub上にある"lightaime/camel"というリポジトリ(プログラムの置き場所)から、プログラムをダウンロードして、ローカルのコンピューターにインストールするためのコマンドです。 具体的には、"git clone"というコマンドを使い、"https://github.com/lightaime/camel.git"というリポジトリをクローン(ダウンロード)します。そして、"cd camel/"というコマンドで、クローンしたプログラムが保存された"camel"というディレクトリに移動します。 次に、"pip install"というコマンドを使い、"."(カレントディレクトリ)にあるプログラムをインストールし

                                                                    【勉強メモ】AutoGPTはもう古い!?AIとAIを会話させるCAMELが超便利。使い方や設定|だいち
                                                                  • 毎朝5時にGoogle Formに自動回答したい - Qiita

                                                                    みなさんこんにちは。夏ですね。 僕もついに部活動が再開し、ワクワクドキドキな訳ですが、一昨日の夜顧問からこんな連絡がきました。 そもそも朝練が6時半から始まる時点でトチ狂っているので5時20分に連絡しろと言われてもさほど驚かなかったのですが、ここで一つ問題が発生しました。 というのも僕は普段朝5時に起き、そのままパンをかじりながら自転車で駅に向かうので、検温をする時間がないのです。もう少し早起きすれば済む話なのですが、4時起きは流石にきついし体がもたないのでやりたくない。かといって5時に起きて検温なんかしていたら朝練そのものに遅れてしまう。 というわけで、朝5時くらいに、心配されない程度の体温をよしなに指定のFormに入力して送信してくれるプログラムを作りたいと思います。 Seleniumでフォームを送信する 本物のフォームを使ってやると僕の身元がバレてしまうので、今回はテスト用に僕が作成

                                                                      毎朝5時にGoogle Formに自動回答したい - Qiita
                                                                    1