並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 19 件 / 19件

新着順 人気順

python os path mkdir exist_okの検索結果1 - 19 件 / 19件

  • Claude Code×Obsidianで作るナレッジベース開発環境 - YOUTRUST Tech Blog

    この記事で得られること ✅ 30分の会議を5分で議事録化する自動化フロー ✅ 開発量を2.5倍に増やした具体的な環境構築方法 ✅ 情報検索を30秒以内に短縮するナレッジ管理術 ✅ PRレビューを10点満点で自動評価する設定 ✅ すぐに使えるCLAUDE.md設定テンプレートとスクリプト TL;DR Claude CodeとObsidianを組み合わせることで、議事録作成時間を66%削減、開発コントリビューションを2.5倍に増加させました。Tactiq→Google Drive→Obsidianの自動化フローと、AIに最適化されたナレッジベース構築により、マネジメント業務をこなしながらも効率的な開発を実現。本記事では実際の設定ファイルとワークフローを公開します。 こんにちは、YOUTRUSTでエンジニアリングマネージャーをしている須藤(YOUTRUST/X)です。AI爆速普及委員会の委員長と

      Claude Code×Obsidianで作るナレッジベース開発環境 - YOUTRUST Tech Blog
    • 「500年後に日本人が佐藤だけになる」という試算の問題と改善 - ill-identified diary

      この記事の要約 はじめに 問題点の要約 (追記) 先行研究について GARCH(っぽい)モデルによるシミュレーション シミュレーション前の理論分析 選択的夫婦別姓との比較 (追記) ゴルトン゠ワトソン分枝過程について 使用するデータ シミュレーションの技術的な補足 乱数生成について GARCHモデルの結果 シミュレーションの追試 より複雑なシミュレーションについて 男女別 世代重複 創作苗字 三親等の婚姻禁止ルール より高度な人口学的モデル 結論 2024/4/22: 先行研究とゴルトン゠ワトソン分枝過程の解説の追記 2024/4/23: 多数の言い回しのおかしい箇所の校正 2024/4/24: グラフ上の記載ミスとグラフ描画コードを修正 この記事の要約 先日報道された「500年後に日本人が佐藤だけになる」という試算の内容に違和感を覚えた. 資料を確認してみると, 大きな問題のある方法で試

        「500年後に日本人が佐藤だけになる」という試算の問題と改善 - ill-identified diary
      • SuperwhisperとVSCodeのCopilot Agentを使って、音声から素早くブログを書き上げる - yasuhisa's blog

        3行まとめ アウトプットの速度を上げたいが、記事を書くのは時間がかかる SuperwhisperとVSCodeのCopilot Agentを組み合せて、音声からブログを書き上げるワークフローを組んだ 実際に使っているpromptを含め、真似しやすいように詳しく紹介 3行まとめ 背景: アウトプット速度を上げたい & LLMの急速な進化 利用している技術 Superwhisper: 技術用語も認識する書き起しアプリ VSCode Copilot Agent: 自然言語で校正のワークフローを組み込む 実用例: どれくらい早くアウトプットできるようになるか 実際のワークフロー 工夫した点 過去に自分が執筆したテキストの資産を活用する 依存関係の抽出を自動で行なう 複数のAgentにレビューをさせる タイトル案の自動生成 実装を通して得られた学び 自然言語でワークフローを組み立てることの難しさ エ

          SuperwhisperとVSCodeのCopilot Agentを使って、音声から素早くブログを書き上げる - yasuhisa's blog
        • 動かして理解する。AI駆動型マルウェアとは ― デモ用PoCによる挙動検証 ― - NTT docomo Business Engineers' Blog

          この記事は、NTT docomo Business Advent Calendar 2025 18日目の記事です。 みなさんこんにちは、イノベーションセンターの田口です。 普段はOffensive Securityプロジェクトのメンバーとして攻撃技術の調査・検証に取り組んでいます。 私たちのチームでは定期的に技術LTと称して、各メンバーが自由に技術的知見を共有する時間を設けています。 この記事では、私が技術LTの場で発表したAI駆動型マルウェア1の動作デモと、発表後のチーム内議論の様子について紹介します。 この記事では、AI駆動型マルウェアの概念を理解するために、実害のないデモ用PoCを作成してその挙動を確認しています。 また、PoC悪用の可能性を考慮して検証の中で作成したコードやプロンプトの全体公開は控えさせていただきます。 Offensive Securityプロジェクトについて AI

            動かして理解する。AI駆動型マルウェアとは ― デモ用PoCによる挙動検証 ― - NTT docomo Business Engineers' Blog
          • VSCodeとローカルLLM(gpt-oss120b)で和訳・RAGする - Qiita

            はじめに 英語ドキュメントを読むのはつらい。 DeepLでもGoogle翻訳でも翻訳文章長のリミットがあったり、なんか日本語的に違和感があったりするものです。 そういう制限を解消しつつ、文書検索を簡単に「意図を理解」して提案してくれる環境をVSCode上に作ろう というお話をやっていきます この記事では触れませんが、セキュリティ文書って結構Red Teaming的なことを書くと、オンラインのAIエージェントは「回答拒否」するので、ローカルLLMを使って回答拒否しないものを作っています。 LLMをうまく選定すれば作れるのでやりたい人はやってみてください。 とはいえ、絶対的にローカルLLMである必要性はないのでオンラインでもよいです。 あくまでも回答拒否しないモデルを使うという点においてローカルLLMが適しているというだけです 環境準備 EVO X2の128GBモデルを買う(or 96GB以上

              VSCodeとローカルLLM(gpt-oss120b)で和訳・RAGする - Qiita
            • 機械学習パイプラインLuigiのタスク同士の関係を良い感じに可視化する方法 - ドワンゴ教育サービス開発者ブログ

              はじめに ドワンゴ教育事業でデータサイエンティストとして働いている中井です。 この記事では、PythonのパイプラインパッケージであるLuigiで構築したパイプラインにおいて、それを構成するタスク間の依存関係・タスクのグループ間(task_namespace で分けられる)の依存関係を良い感じに出力する方法についてお話しします。想定する読者はある程度Luigiを使ったことのある方としています。 Luigiではタスク全体の依存関係を出力できますが、大規模なタスクだともう少し荒い粒度であったり、全体のうちの一部だけ見たいといったこともあると思います。この記事を読むことでそのような荒い粒度の可視化やパイプラインの一部分に注目した可視化ができるようになります。この記事ではまずLuigiを使っていて課題に感じている部分について説明した後に、可視化対象のサンプルパイプラインについて少し触れて、そのパイ

                機械学習パイプラインLuigiのタスク同士の関係を良い感じに可視化する方法 - ドワンゴ教育サービス開発者ブログ
              • やり残していたことの答えっぽいもの - Webメモ

                これは Kyash Advent Calendar 2025 の6日目の記事です。 年の瀬ですね。今年は おかあさんといっしょファミリーコンサート に行ってきまして、ゆういちろうおにいさんの歌唱を生で見て感動したのが印象的でした。毎朝見慣れているうたのおにいさんおねえさん、たいそうのおにいさんおねえさんですが、ステージ上の彼らは煌びやかで、感動的でした。 ステージといえば、今年は Kyash TechTalk #8 - スポットマネー開発の裏側 という、弊社主催のイベントのスピーカーとして壇上に立って発表してきました。おにいさん、おねえさんのように、うまく立ち回ることができず、また久々の登壇機会だったのでしどろもどろしてしまいましたが、なんとか体裁だけは保てたように思います。 speakerdeck.com この資料の以下のページでも話してきたのですが、今回のブログは そんなにうまいことで

                  やり残していたことの答えっぽいもの - Webメモ
                • はじめての自然言語処理 Sentence Transformer による文章ベクトル化の検証 | オブジェクトの広場

                  今回は文章のベクトル化を扱います。文章のベクトル化は 第9回 で扱っていますが、当時に比べてデータセット、事前学習モデル、ライブラリ等でいろいろと状況が好転しているので、改めて扱ってみることにしました。最近は大規模データセットを用いた事前学習が公開されているので、作り比べてみます。 1. はじめに 今回は sentence-transformers1 で文章のベクトル化にチャレンジしてみます。文章をベクトル(埋め込み表現)化することで、文章間の意味合い的な比較が可能になり、類似文章検索やクラスタリングなどが可能になります。 このライブラリは 第9回 で紹介済みですが、当時のバージョンは 0.2.5.1 であり、その後に損失関数が追加されていたり、サンプルコードが充実したりとかなりの更新が入って執筆時点で 2.1.0 になっています。ついでに言うと 第9回 は結構アクセス数があるみたいなので

                    はじめての自然言語処理 Sentence Transformer による文章ベクトル化の検証 | オブジェクトの広場
                  • prompts.chat - AI Prompts Community

                    --- name: skill-creator description: Guide for creating effective skills. This skill should be used when users want to create a new skill (or update an existing skill) that extends Claude's capabilities with specialized knowledge, workflows, or tool integrations. license: Complete terms in LICENSE.txt --- # Skill Creator This skill provides guidance for creating effective skills. ## About Skills S

                      prompts.chat - AI Prompts Community
                    • NeMo Framework で日本語 LLM をファインチューニング - PEFT 編 -

                      Reading Time: 3 minutes ご注意: この記事は NeMo Framework のアップデートのため、2024 年 6 月 10 日に大幅に変更を加えました。 本記事では、NeMo Framework を使用して、日本語の大規模言語モデル (LLM) の PEFT (ファインチューニングの手法の一種)を実行する方法を説明します。 NeMo Framework とは NeMo Framework は、LLM をはじめ、生成 AI モデルを構築、カスタマイズするためのクラウドネイティブなフレームワークです。NGC 上にコンテナーが公開されており、すぐに利用を開始することができます。 NeMo Framework は、NVIDIA AI Enterprise の対象ソフトウェアになっているため、エンタープライズ サポートを希望される場合は、NVIDIA AI Enterpri

                        NeMo Framework で日本語 LLM をファインチューニング - PEFT 編 -
                      • Colabで分子モデリングからMLPで計算【金属触媒編】 - LabCode

                        本記事は、NiO(100) 表面上の Pt ナノクラスターに CO/CO₂ を吸着させた触媒モデルを例に、CIF を主軸に機械学習ポテンシャル用の構造を整える最小ワークフローをまとめた実践ガイドです。Google Colab 上で ASE / pymatgen を使ってスラブとクラスターを組み立て、直交化・スーパーセル展開・吸着分子の配置・幾何チェック・可視化を経て「そのまま UMA(Universal Machine-learning interatomic potential)で単点計算に回せる CIF」を出力するまでを解説し、最後に他の表面・クラスター・分子へ応用するための差し替えポイントも整理します。 動作検証済み環境 Google Colab (2025-05-26), Python 3.10, Torch 2.3.0+cu118, TorchANI 2.2.4, ASE 3.2

                        • Python pathlib Cookbook: 57+ Examples to Master It (2022)

                          A mega tutorial with dozens of examples on how to use the pathlib module in Python 3 When I started learning Python, there was one thing I always had trouble with: dealing with directories and file paths! I remember the struggle to manipulate paths as strings using the os module. I was constantly looking up error messages related to improper path manipulation. The os module never felt intuitive an

                            Python pathlib Cookbook: 57+ Examples to Master It (2022)
                          • StreamlitでEDINETから有価証券報告書をダウンロードして分析するWEBアプリをサクっとつくろう

                            参考文献 ※1 EDINET API機能追加に係る利用者向け説明会資料 ※2 EDINET API仕様書 Version2 ①会社名の選択 まず会社一覧及び、会社のEDINETコードが必要になってきます。 これについてはAPIで取得する方法はなく公式サイトからZIPを落としてくるか ここからプログラム的に自動でダウンロードする必要があります。 今回は手動であらかじめダウンロードしたものを使います。 公式サイトからダウンロードすると毎回リンクが変わる、上記の直接リンクだと固定という謎仕様のようです(ドキュメントにもそうかいてある) ZIPを展開するとShift-JISのCSVが手に入ります。文字コードに注意しましょう。EDINETからダウンロードするCSVはUTF16なのにこっちはShiftJISなのです。 中身は上記のようなもになっています。 末尾に0がついているものの証券コードも入ってい

                              StreamlitでEDINETから有価証券報告書をダウンロードして分析するWEBアプリをサクっとつくろう
                            • [解決!Python]splitext関数でファイルパスから拡張子を取得するには

                              [解決!Python]splitext関数でファイルパスから拡張子を取得するには:解決!Python os.path.splitext関数は渡されたパスを拡張子とそれ以外の部分に分割する。その基本的な使い方と注意点、拡張子ごとに処理を切り分けるサンプルコードを紹介する。 from os.path import splitext # os.path.splitext関数はパスを拡張子とそれ以外に分割する w_file = 'C:\\tmp\\pytips\\foo.txt' u_file = '/tmp/pytips/foo.txt' result = splitext(w_file) print(result)  # ('C:\\tmp\\pytips\\foo', '.txt') result = splitext(u_file) print(result)  # ('/tmp/pyti

                                [解決!Python]splitext関数でファイルパスから拡張子を取得するには
                              • [解決!Python]ディレクトリを作成/削除するには:pathlibモジュール編

                                [解決!Python]ディレクトリを作成/削除するには:pathlibモジュール編:解決!Python pathlibモジュールのPathクラスが提供するmkdir/rmdirメソッドを使って、Pythonのコードからディレクトリを作成/削除する方法を紹介する。 from pathlib import Path # Path.mkdirメソッドを使ったディレクトリ作成 target_dir = Path('sample_dir') target_dir.mkdir() # ディレクトリが既に存在している場合 target_dir.mkdir()  # FileExistsError target_dir.mkdir(exist_ok=True)  # OK target = Path('tmp') target.touch()  # ファイルを作成 target.mkdir(exist_o

                                  [解決!Python]ディレクトリを作成/削除するには:pathlibモジュール編
                                • UbuntuでNAS環境構築 - 電子趣味の部屋

                                  現在Beelink U59でNASを構築してして運用していますが、このときに行ったセットアップ内容をまとめておきたいと思います。 自分へのメモも兼ねて一通り書いたので、長文になります。 ディスク構成 デバイス 種類 用途 /dev/sda 2.5インチHDD 2TB NAS領域のデータ用 /dev/sdb M.2 SATA SSD 128GB OS含むシステム用 ※Beelink U59の2.5インチスロットは厚さ7mmまで対応してます。9.5mmのものは入りませんので注意してください 導入 Ubuntuのインストールとディスク構築方法はここでは省略します。 また、Ubuntu以外でもDebian系のディストリビューションなら同じ手順で構築できると思います。 OSインストール後初期ディスク構成 Ubuntuインストール時に"ディスクを削除してUbuntuをインストール"を選択したので、/d

                                    UbuntuでNAS環境構築 - 電子趣味の部屋
                                  • Google ドライブにある Excel ファイルをシュッと BigQuery にロードしたときの備忘録 - LayerX エンジニアブログ

                                    こんにちは。機械学習・データ部の @irotoris です。 どこからかダウンロードしてきた Excel ファイルのデータを BigQuery に入れてほしいという話があり、Python と pandas で Excel を読み込んでシュッと BigQuery にロードしたときの作業備忘録です。 TL;DR Google Colaboratory に Google ドライブをシュッとマウントできて便利 pandas の ExcelFile() で Excel ファイルがシュッと読めて便利 備忘録 まずは人に聞いたりファイルをいくつか眺めてデータの仕様を把握します。どうやら以下のようなファイルのようです。 ファイル数は200以上、合計 5GiB 程度 Excel 内のシート数は 3つ Excel のシート名は「データの内容を表す文字列_ランダム文字列のサフィックス」※ 例: シート1: tr

                                      Google ドライブにある Excel ファイルをシュッと BigQuery にロードしたときの備忘録 - LayerX エンジニアブログ
                                    • Backlogの課題とwikiとファイルをPythonでええ感じに出力(エクスポート)する方法 | DevelopersIO

                                      こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 今回はBacklogの課題とwikiとファイルをPythonでええ感じに出力(エクスポート)する方法を紹介します。 なお、本記事と似たようなことは過去に以下の記事で投稿していますが、今回はwikiやファイルを含めて取り扱いました。 本記事の方法でできること・できないこと 本記事の方法では以下ができます 課題 課題の記載内容とコメント(テキストファイルとして、コメントには日時・作成者を包含)の出力 課題に添付されたファイルの出力 添付ファイルもダウンロード wiki wikiの記載内容の出力 wikiの階層構造はディレクトリ構造として維持 wikiの添付ファイルもダウンロード ファイル ファイルにアップロードされているもの出力 ディレクトリ階層構造は維持 その他 プロジェクトIDはプロジェクト名から

                                        Backlogの課題とwikiとファイルをPythonでええ感じに出力(エクスポート)する方法 | DevelopersIO
                                      • NVIDIA/tacotron2 で日本語の音声合成を試す (2) - JSUTで学習|npaka

                                        前回、「Japanese Single Speaker Speech Dataset」を使った音声合成を行いました。次は「つくよみちゃんコーパス」といきたいところですが、「つくよみちゃんコーパス」のサンプル数は100個と少なく、そのままだとうまく学習できなさそうなので、 (1) 英語を学習(済) (The LJ Speech Dataset, 13100個) ↓ (2) 日本語を学習 (JSUT, 7696個) ↓ (3) つくよみちゃんの声を学習(つくよみちゃんコーパス, 100個)という転移学習な作戦をたててみました。(うまくいくか不明) 今回は「JSUT」で日本語の学習に挑戦してみたいと思います。 前回 1. 音素表記「Japanese Single Speaker Speech Dataset」にはデータセット内に「音素表記」があったのでそれを利用しましたが、「JSUT」にはないの

                                          NVIDIA/tacotron2 で日本語の音声合成を試す (2) - JSUTで学習|npaka
                                        1