タグ

ブックマーク / note.com/npaka (11)

  • GPT Index で専門知識を必要とする質問応答チャットボットを簡単作成|npaka|note

    「GPT Index」を試したので、まとめました。 1. GPT Index「GPT Index」は、専門知識を必要とする質問応答チャットボットを簡単に作成できるライブラリです。 同様のチャットボットは「LangChain」でも作成できますが、「GPT Index」は、コード数行で完成してお手軽なのが特徴になります。 2. ドキュメントの準備はじめに、チャットボットに教える専門知識を記述したドキュメントを用意します。 今回は、マンガペディアの「ぼっち・ざ・ろっく!」のあらすじのドキュメントを用意しました。 ・bocchi.txt 【注意】ドキュメントが大きいと、OpenAI APIの呼び出しも多くなるので、コストを注意する必要があります。 3. Colabでの実行Google Colabでの実行手順は、次のとおりです。 (1) パッケージのインストール。 # パッケージのインストール !p

    GPT Index で専門知識を必要とする質問応答チャットボットを簡単作成|npaka|note
  • PyTorch3D 入門|npaka

    1. PyTorch3D「PyTorch3D」は、3Dグラフィックス向けの機械学習ライブラリです。「TensorFlow Graphics」「NVIDIA Kaolin」がTensorFlowをサポートするのに対し、「PyTorch3D」はPyTorchをサポートします。 2. 3Dグラフィックス向けの機械学習3Dグラフィックス向けの機械学習の多くは、「2D画像」から「3D世界」の推論を行います。 学習は、「変換関数」の他に「レンダリング」も含めて誤差逆伝播を行い、最適値を見つけ出すことができます。 「3D再構成」は、2D画像から3Dモデルを生成するタスクです。「入力画像」を「変換関数」で3Dモデルに変換し、それをレンダリングで2D画像に変換します。これが元の物体のシルエットに近くなるように、「変換関数」を更新します。 3. チュートリアルの内容今回は、「球体メッシュ」を関数で変換した「予

    PyTorch3D 入門|npaka
  • Unityのレンダーパイプライン|npaka

    Unityのレンダーパイプラインについてまとめました。 1. レンダーパイプライン「レンダーパイプライン」は、オブジェクトを画面に描画するまでの様々な工程群(カリング、座標変換、陰影計算、ラスタライズなど)を表す言葉です。現在のUnityには、次の2種類の「レンダーパイプライン」が提供されています。 ・Build-in Render Pipeline : 従来のUnityで提供されているレンダーパイプライン。 ・Scriptable Render Pipeline(SRP) : Unity 2018から提供されているカスタマイズ可能なレンダーパイプライン。SRPで独自のレンダーパイプラインを作成することも可能ですが、現在のUnityには、次の2種類の「カスタムレンダーパイプライン」が提供されています。 ・Universal Render Pipeline(URP) : 軽量なレンダーパイプ

    Unityのレンダーパイプライン|npaka
  • Unity Barracuda による機械学習まとめ 2020秋|npaka

    Unity Barracuda Release 1」がリリースされて半年、開発事例がいろいろでてきたのでまとめました。 1. Barracuda「Barracuda」は、Unity用の軽量でクロスプラットフォームなニューラルネットワーク推論ライブラリです。 サポートしているプラットフォームは、次のとおりです。 「Unity ML-Agents」も推論ライブラリとして「Barracuda」を使ってます。

    Unity Barracuda による機械学習まとめ 2020秋|npaka
  • WordNet を使ってPythonで類義語を調べる|npaka

    「WordNet」の使い方を軽くまとめました。 ・macOS 10.15.7 ・Python 3.6 1. WordNet「WordNet」は意味に基いて作成された巨大な概念辞書です。 「類義語」「上位概念」「下位概念」などがまとめられているDBになります。 ・類義語 : 意味が似ている語。 【例】の類義語 → ねんねこ, にゃんにゃん, , キャット, ネコ ・上位概念・下位概念 : 下位概念は上位概念の概念関係を承継。 【例】の上位概念 → 動物 動物の下位概念 → 犬, , 猿 2. WordNetDB定義主なDB定義は、次のとおりです。 ◎ word 単語のテーブルです。 ・wordid : 単語ID ・lang : 言語 (jpn, eng) ・lemma : レンマ ・pron : -◎ synset 概念のテーブルです。 ・synset : 概念ID ・pos :

    WordNet を使ってPythonで類義語を調べる|npaka
  • 深層学習による自然言語処理のコーパス まとめ|npaka

    深層学習による自然言語処理のコーパスをまとめました。 1. テキスト分類◎ livedoor ニュースコーパス

    深層学習による自然言語処理のコーパス まとめ|npaka
  • SudachiPy による自然言語処理の正規化|npaka

    「SudachiPy」による自然言語処理の「正規化」についてまとめました。 1. SudachiPy「SudachiPy」はワークス徳島人工知能NLP研究所が開発している形態素解析器「Sudachi」のPython版です。 2. 正規化「正規化」とは、同じ意味の単語を統一的な内部表現に変換することで、テキストの比較を容易にする処理です。これによって、全角の「ネコ」や半角の「ネコ」やひらがなの「ねこ」を同じ単語として処理できるようになります。 「Sudachi」では、この「正規化」の機能が提供されています。 3. Sudachiの単語の正規化「Sudachi」の、以下のような単語の正規化を提供します。 (1) 送り違い : 【例】打込む → 打ち込む (2) 字種 : 【例】かつ丼 → カツ丼 (3) 異体字 : 【例】附属 → 付属 (4) 誤用 : 【例】シュミレーション → シミュレー

    SudachiPy による自然言語処理の正規化|npaka
  • CLIPを試す - OpenAIのZero-shot画像分類器|npaka

    以下の記事を参考にして書いてます。 ・How to Try CLIP: OpenAI's Zero-Shot Image Classifier 1. はじめに今年はじめに、OpenAIはコンピュータービジョンの世界に爆弾を投下しました。2つの新しい画期的なモデルは、巨大なGPT3風のTransformerモデルが画像分野に侵入することを示唆しています。「DALL-E」(テキストプロンプトから画像を生成できるモデル)が多くの注目を集めましたが、この投稿では「CLIP」に焦点を当てます。「CLIP」は間違いなくより重要なZero-shot画像分類器になります。 これまで「画像分類」は、ターゲットクラスを適切に表す数百〜数千、さらには数百万のラベル付き画像のカスタムデータセットを収集し、それを使用して教師あり分類モデル(通常はCNN)を学習していました。このアプローチ(および「物体検出」のような

    CLIPを試す - OpenAIのZero-shot画像分類器|npaka
  • Huggingface Transformers 入門 (4) - 訓練とファインチューニング|npaka

    1. PyTorchでのファインチューニング「TF」で始まらない「Huggingface Transformers」のモデルクラスはPyTorchモジュールです。推論と最適化の両方でPyTorchのモデルと同じように利用できます。 テキスト分類のデータセットでモデルをファインチューニングする一般的なタスクを考えてみます。from_pretrained()を用いてモデルをインスタンス化すると、指定されたモデルの「モデルの構成」と「事前学習した重み」が、モデルの初期化に使用されます。このライブラリには,指定された事前学習済みモデルに含まれていない場合には、ランダムにインスタンス化される重みを持つタスク固有の「最終層」または「ヘッド」も多数含まれています。例えば、BertForSequenceClassification.from_pretrained('bert-base-uncased',

    Huggingface Transformers 入門 (4) - 訓練とファインチューニング|npaka
  • Huggingface Transformers 入門 (2) - モデル|npaka

    1. モデルのカテゴリ「Huggingface Transformers」のモデルは、下のカテゴリに分類されます。 ・自己回帰モデル (Autoregressive models) ・オートエンコーディングモデル (Autoencoding models) ・Sequence-to-sequenceモデル (Sequence-to-sequence models) ・マルチモーダルモデル (Multimodal models) ・検索ベースモデル (Retrieval-based models)2. 自己回帰モデル 「自己回帰モデル」は、古典的な「言語モデル」で事前学習します。一連のトークンに続くトークンを予測します。このモデルはオリジナルのTransformerモデルのデコーダに相当します。文全体にマスクが使用されているので、アテンションヘッドは、次の文の前を見ることができ、次の文の後は

    Huggingface Transformers 入門 (2) - モデル|npaka
  • Huggingface Transformers 入門 (1) - 事始め|npaka

    「Huggingface Transformers」の使い方をまとめました。 ・Python 3.6 ・PyTorch 1.6 ・Huggingface Transformers 3.1.0 1. Huggingface Transformers「Huggingface ransformers」(🤗Transformers)は、「自然言語理解」と「自然言語生成」の最先端の汎用アーキテクチャ(BERT、GPT-2など)と何千もの事前学習済みモデルを提供するライブラリです。 ・Huggingface Transformersのドキュメント 2. Transformer「Transformer」は、2017年にGoogleが発表した深層学習モデルで、2021年現在、自然言語処理に利用する深層学習モデルのデファクトスタンダードになっています。 「Transformer」は、過去に自然言語処理分野

    Huggingface Transformers 入門 (1) - 事始め|npaka
  • 1