The leading open-source AI code assistant. You can connect any models and any context to create custom autocomplete and chat experiences inside the IDE
はじめに 夏本番のこの時期、皆様のご様子はいかがでしょうか。新人エンジニアの木介です。暑さにも負けず、毎日一歩一歩成長しています。 今回は先日紹介したPrompt Flows for Amazon Bedrockを使ったAdvanced RAGの実装方法についての紹介を行っていきます。 Prompt flowsを用いることでDifyと同じようにLLMとプロンプトを組み合わせたフローをGUIで作成でき、また、AWS上の各種サービスへ簡単に組み込むことが出来ます。 aws.amazon.com acro-engineer.hatenablog.com はじめに 構築したアーキテクチャ 概要 Prompt Flows for Amazon Bedrockとは Advanced RAGとは Advanced RAGの構築方法 構築するワークフロー 1. クエリ拡張 2. Knowledge Bas
日本人のサイバーセキュリティ知識は世界最下位世界のオンラインプライバシーとサイバーセキュリティに対する意識は悪化の一途をたどっているという調査結果 世界のオンラインプライバシーとサイバーセキュリティに対する意識は悪化の一途をたどっているという調査結果 昨年と比べ、日本は世界ランキングで9位から12位に後退しました。韓国と並び世界最下位です。 日本人はAIを仕事に使用する際のプライバシー問題について無知です。 2023年と比較すると、FacebookがFacebookを利用していない人のデータも収集できることを理解している日本人の数は減りました。 サイバーセキュリティ企業NordVPNの新たな調査[https://nordvpn.com/ja/blog/national-privacy-test-japan-2024/] によると、サイバーセキュリティとインターネットプライバシーに関する知識
8月19日、海外の技術情報メディアTheRegisterが「自分で作ればGitHub Copilotは不要」と題した記事を公開した。この記事では、オープンソースのAIコードアシスタント「Continue」を中心に、どのようにしてLLM(大規模言語モデル)をローカル環境で実行し、IDEに統合するかについて解説している。 Continueをインストールする前提条件 Continueをインストールし、動作させるには、以下の前提条件を満たす必要がある。 マシン要件: 動作に必要なマシン: 近年のプロセッサを搭載したシステムであれば動作するが、最適なパフォーマンスを得るためにはNvidia、AMD、またはIntelのGPU(6GB以上のvRAMを推奨)が望ましい。Apple Silicon搭載のMacでも動作するが、16GB以上のメモリを推奨する。 Ollamaモデルランナー: Ollamaモデルラ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く