サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
hamaruki.com
はじめに 本ガイドでは、v0で生成されたコンポーネントをshadcn CLIを使用してNext.jsプロジェクトに統合する方法を、実際のコマンドライン操作に基づいて説明します。この方法を使用することで、AIの力を活用した効率的な開発ワークフローを構築できます。 デモ動画 「v0 + shadcn/ui CLI」を使ってエヴァンゲリオン NERV の戦闘情報センター (CIC)のダッシュボードをローカルで起動してみた!! 右往左往も含めて4分以内でできました! *動画は早回し+カットしてます https://t.co/nzU4ADkmhR pic.twitter.com/k3hLy4OHVz — Maki@Sunwood AI Labs. (@hAru_mAki_ch) September 1, 2024 v0とは v0は、Vercelが開発した革新的なAI駆動のUIコンポーネント生成プラッ
Docker/docker-composeのインストール Dockerのインストールはこちらを参考にしてください。 プロジェクトの作成 まず、任意のディレクトリを作成し、その中に以下の3つのファイルを作成します。 Dockerfile.llama Dockerfile docker-compose.yml Dockerfile.llama # ビルドステージ ARG CUDA_IMAGE="12.5.0-devel-ubuntu22.04" FROM nvidia/cuda:${CUDA_IMAGE} # 外部からのアクセスを許可するために、ホストを0.0.0.0に設定する必要がある ENV HOST 0.0.0.0 # 必要なパッケージのインストールと OpenCL の設定 RUN apt-get update && apt-get upgrade -y \ && apt-get ins
GraphRAGのインストール まずは、GraphRAGをインストールしましょう。Pythonの環境(バージョン3.10から3.12)が必要です。 !pip install graphrag ├── create_final_community_reports ├── create_final_text_units ├── create_base_documents └── create_final_documents �[?25h �[32mAll workflows completed successfully.�[0m MS公式のGraphRAGに挑戦中。。。 indexに時間がかかってます。。。 https://t.co/CG3M6tMiO4 pic.twitter.com/cDgxxTnbtl — Maki@Sunwood AI Labs. (@hAru_mAki_ch) Jul
Your request has been blocked. This could be due to several reasons. 近年の AI の進化は目覚ましく、特に大規模言語モデル (LLM) は目覚ましい発展を遂げています。しかし、LLM には、学習したデータの範囲を超えた問題を解決することが難しいという課題がありました。 そこで、Microsoft Research は、LLM の能力を拡張する画期的な技術 GraphRAG を開発しました。GraphRAG は、LLM を使って非公開データから知識グラフを生成し、複雑な質問への回答精度を大幅に向上させます。 LLM が抱える課題と RAG 技術の登場 LLM は大量のデータを使って学習しますが、学習データに含まれない情報を含む質問にはうまく回答できません。例えば、「最新の科学論文に基づいて、この病気の新しい治療法を提案して
ワークフローの概要 このGitHub Actionsワークフローは以下の主要な機能を持っています: 新しいイシューが開かれたときに自動的に起動 イシューの内容を分析し、不適切なコンテンツをチェック 既存のイシューとの重複を検出 必要に応じてラベルを付与 ワークフローの詳細解説 トリガーとパーミッション設定 name: Issue Review on: issues: types: [opened] permissions: issues: write contents: read このセクションでは、ワークフローの名前を定義し、トリガー条件とパーミッションを設定しています。 on.issues.types: [opened]: 新しいイシューが開かれたときにワークフローが起動します。 permissions: ワークフローがイシューの読み書きと、リポジトリコンテンツの読み取りを行うための権
はじめに みなさん、こんにちは!今日は、AI技術の世界に革命を起こす新機能「Artifacts(アーティファクツ)」について、わかりやすくお話ししていきます。Claudeという人工知能と、より効果的に協力して作業ができるようになる、とてもワクワクする機能なんです。 Artifactsとは何か? 簡単な説明 Artifactsは、Claude.aiで導入された新機能です。ユーザーがClaudeに何かを作ってもらう時、その成果物を会話とは別の専用ウィンドウで見ることができます。つまり、会話しながら同時に作品を見て編集できる、そんな魔法のようなツールなんです。 Artifactsの主な特徴 リアルタイムの表示: Claudeが作った内容をすぐに見ることができます。 編集可能: 表示された内容を自由に編集できます。 作業の継続性: 一度作ったものを基に、さらに改良を加えていけます。 Artifac
こんにちは!今回は、Flaxを使用して2Bグリフィンモデルをシンプルな翻訳タスクにファインチューニングする方法を学びます。グリフィンモデルは強力な言語モデルで、ファインチューニングによって特定のタスクに適応させることができます。 初心者の方にも分かりやすいよう、コードの説明を丁寧に行いながら、ステップバイステップでチュートリアルを進めていきます。それでは、早速始めていきましょう! セットアップ まずは必要なライブラリをインストールし、環境を整えていきます。 !pip list --format=freeze > requirements.kaggle.txt !pip list pip listコマンドでインストール済みのライブラリを一覧表示し、requirements.kaggle.txtファイルに出力しています。これは現在の環境を再現するために必要な情報です。 次に、Recurrent
はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta
はじめに 近年、人工知能(AI: Artificial Intelligence)の分野では、AIエージェント(AI Agents)と呼ばれる技術が大きな注目を集めています。AIエージェントとは、人間に代わって自律的に行動し、目標を達成するためのソフトウェアシステムのことです。 特に、大規模な言語モデルや画像生成モデルなどの基盤モデル(Foundation Models)を用いたAIエージェントは、高度な推論能力と言語処理能力を持ち、ユーザーの目的を理解し、それを達成するために自発的に行動することができます。そのため、様々な分野での応用が期待されています。 しかし、このようなAIエージェントを開発する際には、目標設定の難しさや推論プロセスの説明性の欠如、責任の所在の複雑さなど、様々な課題が存在します。また、基盤モデルに内在する幻覚(Hallucinations)の問題もあります。 これらの
注意: Modelfile の構文は開発中です。モデルファイルは、Ollamaでモデルを作成・共有するための設計図です。おススメ記事フォーマットModelfile のフォーマット:# コメントINSTRUCTION 引数インストラクション説... モデルプロバイダーの追加 モデルタイプを選択: 「ollama」を選択します。 必要な情報を入力: モデル名: llm-jp-13b-v2 Base URL: http://host.docker.internal:11434 Completion Mode: 「Chat」 モデルコンテキストサイズ: 4096 最大トークン数の上限: 4096 Vision Support: 「No」を選択 ワークフローの作成 4人のエージェントのシステムプロンプトを設定: 楽観的AI研究者、慎重派経済学者、AIジャーナリスト、倫理学者の4人のエージェントを作成
はじめに このプロンプト集は、AIを活用してクリーンで保守性が高く、スケーラブルなコードを効率的に開発するためのガイドです。以下のプロンプトを参考に、プロジェクトの要件や進捗状況に合わせて適切なプロンプトを選択し、カスタマイズしてください。 AIとの対話を通じて、コードの生成やレビュー、改善案の提案を受けながら、自身でコードを見直し、リファクタリングを行うことで、高品質なコードを効率的に開発することを目指します。 下記のredditを日本語にしたものです。はじめに私は個人プロジェクトでコードを書く際、特に自動化のためのものを書く際には、AI を活用しています。この点について、人によって意見が分かれるようです。同じように AI を使っている人もいれば、... プロンプトの使用方針 コンテキストは低く保ち、新しい会話をこまめに行う AIにコードをレビューさせる際は、別のAIが書いたコードだと伝
https://www.reddit.com/r/LocalLLaMA/comments/1cvw3s5/my_personal_guide_for_developing_software_with_ai/?rdt=40405 はじめに 私は個人プロジェクトでコードを書く際、特に自動化のためのものを書く際には、AI を活用しています。この点について、人によって意見が分かれるようです。同じように AI を使っている人もいれば、AI が良いコードを書くことは不可能だと考える人もいます。私の分野の専門家の間でも同様の考え方に遭遇し、AI の使い方が人によって異なるのかもしれないと気づきました。 私自身のバックグラウンドですが、私は開発マネージャーであり、業界で長年の経験を積み、大学院でもソフトウェア開発を学んできました。ですので、このガイドは素人ではなく、大規模システムの構築と運用に関するかなり
はじめに Kotoba-Whisperは、Asahi UshioとKotoba Technologiesが共同開発した、日本語の音声認識(ASR)に特化した蒸留Whisperモデルのコレクションです。OpenAIのWhisper large-v3をティーチャーモデルとし、ReazonSpeechの大規模な日本語音声データを用いて学習されました。 元のlarge-v3モデルと比べて6.3倍の高速化を実現しつつ、ほぼ同等の低いエラー率を維持しています。 この記事では、Kotoba-Whisperについての概要を説明し、Transformersライブラリを使った具体的な利用方法をコード付きで紹介します。 こちらの記事もおすすめ
はじめに 近年、大規模言語モデル(LLM)を用いた知的エージェントの開発が盛んになってきました。しかし、LLMとエージェントを効率的に統合・運用するには様々な課題があります。 この論文では、LLMをオペレーティングシステム(OS)に組み込んだ「LLMエージェントオペレーティングシステム(AIOS)」を提案しています。 AISOは、エージェントのリソース割り当て最適化、コンテキストスイッチ、並列実行、ツールサービス提供、アクセス制御などの機能を持っています。 関連研究 オペレーティングシステムの進化 OSは当初、ハードウェアとユーザータスクの橋渡し役でしたが、その後、バッチ処理、タイムシェアリング、マルチタスク処理など、より高度な機能を備えるようになりました。 また、プロセススケジューリング、メモリ管理、ファイルシステム管理など、モジュール化も進みました。GUIの登場により、OSはよりインタ
Pythonベース Pythonの知識があれば比較的簡単にアニメーションを作成できます。Pythonは初心者にも学びやすい言語なので、Manimを使い始めるハードルが低いのが良い点です。 豊富な数学オブジェクト 数式、グラフ、ベクトル、行列など様々な数学オブジェクトをサポートしています。LaTeXを使って数式を綺麗に表示できるのも魅力的です。 柔軟なアニメーション オブジェクトの移動、変形、出現/消失など、様々なアニメーション効果を適用できます。カメラワークも自在にコントロール可能です。 高品質な出力 レンダリング品質が高く、滑らかで見栄えのする動画を生成できます。解像度やフレームレートなども細かく設定できます。 コミュニティの活発さ GitHubで公開されており、開発が活発に行われています。ドキュメントやサンプルコードも豊富で、コミュニティから情報を得やすいのも利点です。 初心者にとって
このページを最初にブックマークしてみませんか?
『Sun wood AI labs.2 - -- はまる木 --』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く