並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 18 件 / 18件

新着順 人気順

python logging print to stdoutの検索結果1 - 18 件 / 18件

  • LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ

    こんにちは。電通総研コーポレート本部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAI

      LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ
    • Sublime Text 4

      The first stable release of Sublime Text 4 has finally arrived! We've worked hard on providing improvements without losing focus on what makes Sublime Text great. There are some new major features that we hope will significantly improve your workflow and a countless number of minor improvements across the board. A huge thanks goes out to all the beta testers on discord and all the contributors to

        Sublime Text 4
      • Llamaindex を用いた社内文書の ChatGPT QA ツールをチューニングする - GMOインターネットグループ グループ研究開発本部

        D.M.です。Llamaindex で ChatGPT と連携した社内文書の QA ツールを構築した際にハマったことを書いていきます。 ChatGPT に追加でデータを与える課題へのアプローチ 今回やりたいこと つくったもの システム構成 ユースケース はじめに書いたソースコードLlamaindex 処理フロー Llamaindex チューニング課題 元ネタのテキストファイルをベクター検索のチャンクに収まるように意味の塊にする 課題1 ベクター検索の2番目のドキュメントが正解だったりする問題 課題2 複数のドキュメントを読ませると間違える確率が上がる問題 課題3 失敗している理由がよくわからない問題 課題4 ときおり英語で返してくる問題 課題5 OpenAI API がタイムアウトする問題 Tips1 ローカルファイルを小さくしたい Tips2 回答をもっと厳密にしたい ChatGPT に

          Llamaindex を用いた社内文書の ChatGPT QA ツールをチューニングする - GMOインターネットグループ グループ研究開発本部
        • 面倒なスクショ命名はローカルvlmにやらせよう on Mac

          🆕 2025-05-31 追記: 本記事のスクリプトのモデルをQwen2.5-vlに刷新し、 動画 (mp4 / mov / webm …) も自動リネームできるようになりました。 こんにちは。今回はMacにローカル Vision Language Model (VLM) 環境を整えて、スクリーンショットが撮られるたびに自動で “適切っぽい” ファイル名を付けてくれる仕組みを作ってみました。 タイトルは言わずもがな某書籍をオマージュパクらさせていただきました。 いやー、Mac標準だと「スクリーンショット 2025-01-01…」みたいなファイルが無限に増えてどれがどれだかわかんなくなるじゃないですか。ぼくも未来のAI時代を先取りするなら、ちょっとカッコいい名前が自動でつくとウキウキするんじゃね?と思いまして。 ここではMacローカルで動かせる mlx-vlm パッケージ経由で Qwen2

            面倒なスクショ命名はローカルvlmにやらせよう on Mac
          • The Ultimate Guide to Error Handling in Python

            I often come across developers who know the mechanics of Python error handling well, yet when I review their code I find it to be far from good. Exceptions in Python is one of those areas that have a surface layer that most people know, and a deeper, almost secret one that a lot of developers don't even know exists. If you want to test yourself on this topic, see if you can answer the following qu

              The Ultimate Guide to Error Handling in Python
            • ローカル で Llama 2 + LangChain の RetrievalQA を試す|npaka

              3. ローカルでの実行ローカルでの実行手順は、次のとおりです。 (1) Pythonの仮想環境の準備。 (2) 「Llama 2」(llama-2-7b-chat.ggmlv3.q4_0.bin)の準備。 前回と同様です。 (3) パッケージのインストール。 macOSはGPU対応が面倒そうなので、CPUにしてます。 $ pip install llama-cpp-python $ pip install langchain $ pip install faiss-cpu $ pip install sentence_transformers(4) コードの作成。 ・hello_qa.py import logging import sys from langchain.chains import RetrievalQA from langchain.embeddings import H

                ローカル で Llama 2 + LangChain の RetrievalQA を試す|npaka
              • Introducing default data integrity protections for new objects in Amazon S3 | Amazon Web Services

                AWS News Blog Introducing default data integrity protections for new objects in Amazon S3 Update on December 2, 2024: Updated SDKs with default integrity protections will be available in the coming weeks. At Amazon Web Services (AWS), the vast majority of new capabilities are driven by your direct feedback. Two years ago, Jeff announced additional checksum algorithms and the optional client-side c

                  Introducing default data integrity protections for new objects in Amazon S3 | Amazon Web Services
                • はじめての自然言語処理 Hugging Face Transformers で T5 を使ってみる | オブジェクトの広場

                  前回が分量的にやたらと重かったので、今回はその反省(反動?)を踏まえて軽い感じでいってみます。第7回で紹介した T5 ですが Hugging Face の Transformers でもサポートされてますので、その使用方法をご紹介したいと思います。 1. はじめに 今回は久しぶりに T5 の話です。T5 に関しては第7回、第8回で一度紹介しているので、未読の方は記事に目を通してから戻ってきて頂けると、より理解がしやすいと思います。 さて、 T5 ですが Google のオリジナルコード(以下 “t5"と記述)1は敷居が高いと感じる方もいらっしゃるのではないでしょうか。 Estimator API ベースのコードや gin による設定など慣れていないと、とっつきにくいのではないかと思います。 そこで今回は Hugging Face の Transformers 2を使って T5 を動かす方法

                    はじめての自然言語処理 Hugging Face Transformers で T5 を使ってみる | オブジェクトの広場
                  • Using skills to accelerate OSS maintenance | OpenAI Developers

                    Keep workflows in the repo In these repos, we use skills to capture repository-specific workflows. A skill is a small package of operational knowledge: a SKILL.md manifest, plus optional scripts/, references/, and assets/. The Codex customization docs describe why this works well: skills are a good fit for repeatable workflows because they can carry richer instructions, scripts, and references wit

                      Using skills to accelerate OSS maintenance | OpenAI Developers
                    • 3分プロトタイピング: RAGを使ってAIチャットアプリケーションに知識を与える - ROUTE06 Tech Blog

                      連載「3分プロトタイピング」 Streamlitを用いたAIチャットアプリ RAGを使ってAIチャットアプリケーションに知識を与える(この記事です) ベクトルデータベース超入門 前回の投稿でStreamlitを使ったAIとチャットするアプリケーションの雛形を作成しました。 tech.route06.co.jp あのアプリケーションにくまモンについて聞いてみるとこんな回答が返ってきます。 くまモンについて教えてください それっぽいけど違いますね。今回は、このように特定のキャラクターや事象について正しい情報をAIに返してもらう方法を紹介します。説明が長くなるので3分を超えてしまいますが、コードは3分で書けるようになっていますので、早速やってみましょう。 AIに知識を教える3つの方法 まず、AIにキャラクターなどの「知識」教える3つの方法について紹介します。 プロンプトエンジニアリング Retr

                        3分プロトタイピング: RAGを使ってAIチャットアプリケーションに知識を与える - ROUTE06 Tech Blog
                      • prompts.chat - AI Prompts Community

                        --- name: skill-creator description: Guide for creating effective skills. This skill should be used when users want to create a new skill (or update an existing skill) that extends Claude's capabilities with specialized knowledge, workflows, or tool integrations. license: Complete terms in LICENSE.txt --- # Skill Creator This skill provides guidance for creating effective skills. ## About Skills S

                          prompts.chat - AI Prompts Community
                        • Awesome Terraform | Curated list of awesome lists | Project-Awesome.org

                          A curated list of resources on HashiCorp's Terraform. Your contributions are welcome! Terraform enables you to safely and predictably create, change, and improve production infrastructure. It is an open source tool that codifies APIs into declarative configuration files that can be shared amongst team members, treated as code, edited, reviewed, and versioned. Contents Legend Official Resources Com

                          • GitHub - 9001/copyparty: Portable file server with accelerated resumable uploads, dedup, WebDAV, SFTP, FTP, TFTP, zeroconf, media indexer, thumbnails++ all in one file

                            turn almost any device into a file server with resumable uploads/downloads using any web browser server only needs Python (2 or 3), all dependencies optional 🔌 protocols: http(s) // webdav // sftp // ftp(s) // tftp // smb/cifs 📱 android app // iPhone shortcuts 👉 Get started! or visit the read-only demo server 👀 running on a nuc in my basement 📷 screenshots: browser // upload // unpost // thum

                              GitHub - 9001/copyparty: Portable file server with accelerated resumable uploads, dedup, WebDAV, SFTP, FTP, TFTP, zeroconf, media indexer, thumbnails++ all in one file
                            • Build and deploy ML inference applications from scratch using Amazon SageMaker | Amazon Web Services

                              Artificial Intelligence Build and deploy ML inference applications from scratch using Amazon SageMaker As machine learning (ML) goes mainstream and gains wider adoption, ML-powered inference applications are becoming increasingly common to solve a range of complex business problems. The solution to these complex business problems often requires using multiple ML models and steps. This post shows y

                                Build and deploy ML inference applications from scratch using Amazon SageMaker | Amazon Web Services
                              • mnbcard - マイナンバーカード PYTHON Lib - Qiita

                                概要 マイナンバーカードのPython用ツール・ライブラリーです。 できること 券面確認 AP・券面入力補助 AP の読み取り 4 属性の取得(名前、住所、生年月日、性別) 個人番号の取得 公的個人認証の各種証明書の読み取り 認証用証明書の取得 認証用証明書 CA の取得 認証用証明書の取得 署名用証明書 CA の取得 公的個人認証の署名 認証用秘密鍵による署名 署名用秘密鍵による署名 ソースコード 使用例 #! /usr/bin/env python3 import logging import sys sys.path.append('./../mnbcard') from reader import get_reader, connect_card from api import * from helper import * # ログレベルを設定する root = logging.g

                                  mnbcard - マイナンバーカード PYTHON Lib - Qiita
                                • LlamaIndex v0.10 クイックスタートガイド - Python版|npaka

                                  v0.10 では大規模アップデートがありました。 ・llama-index-coreを導入し、Integrationを個別パッケージに分離 ・ServiceContextは非推奨 ・全IntegrationをLlamaHubで管理 2. LlamaIndexの5つのステージ「LlamaIndex」には、5つのステージがあります。 2-1. Loadingデータソース (テキストファイル、PDF、Webサイト、データベース、APIなど) からデータを読み込みます。 「Loading」の主要コンポーネントは、次のとおりです。 ・Document : データソースのコンテナ ・Node : Documentを分割したもの。チャンクとメタデータが含まれる ・Connector : データソースからDocumentおよびNodeを取り込むモジュール 2-2. Indexingデータのクエリを可能にす

                                    LlamaIndex v0.10 クイックスタートガイド - Python版|npaka
                                  • [AWS IoT Greengrass V2] RaspberryPIでコンポーネントを作成してみました | DevelopersIO

                                    1 はじめに IoT事業部の平内(SIN)です。 前回、AWS IoT Greengrass V2(以下、Greengrass V2)をRaspberryPiにセットアップしてみました。 今回は、このRasPi上で、入門チュートリアルをなぞりながら、初めてのコンポーネントを作成してみました。 2 レシピとアーティファクト コンポーネントは、コアデバイス上で動作するソフトウェアモジュールですが、レシピとアーティファクトで構成されています。 レシピ(設定パラメータ、依存関係、ライフサイクル、互換性を指定するメタ情報) アーティファクト(複数のスクリプト、バイナリ、静的リソースなど) アーティファクトのフォルダのパスは、「artifacts/componentName/componentVersion/」の形式となっていますが、実際に展開してみると、以下のようになります。 . ├── artif

                                      [AWS IoT Greengrass V2] RaspberryPIでコンポーネントを作成してみました | DevelopersIO
                                    • はじめての自然言語処理 MixCSE による教師なし文章ベクトル生成 | オブジェクトの広場

                                      今回は教師なしの文章ベクトル化手法である MixCSE の検証です。教師なし学習ですから教師ありの手法よりは精度的に不利でしょうが、局面によっては役に立つケースもあるのでは?と試してみることに。公開されているコードは transformers ベースなのですが、今回は Colab の TPU で動かしてみたので、その方法も紹介しますね。 1. はじめに 今回は教師なしの文章ベクトル化手法である MixCSE1 の検証をしてみました。 本連載では文章ベクトル化のモデルとして、 Sentence BERT を取り上げたこと(第9回, 第18回)がありますが、品質の良いベクトルを生成する為には大量かつ良質の教師データが必要でした。 法律や特許のような特定領域に特化した文章を扱う局面では、対象領域の文書で学習したモデルを使いたいところですが、特定領域限定の都合良いデータはなかなか手に入りません。そ

                                        はじめての自然言語処理 MixCSE による教師なし文章ベクトル生成 | オブジェクトの広場
                                      1