Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

はじめに Python.NETを利用するとC#からPythonの関数を呼び出したり、逆にPythonからC#のメソッドを呼び出したりできるのでNumpyなどの資産をそのまま利用できます。 Unityからも問題なく使えるのですがアプリ配布先にPythonがインストールされていないと動きません。 そこでWindows限定ですがPython Embeddable PackageをStreamingAssetsフォルダに入れて配布先の環境に依存せずに実行できるプロジェクトを作ってみました。 サンプルだけを見たい方はこちらからご覧ください。 余談ですがPython Scriptingでも内部でPython.NETが使われていますがこちらはエディタ専用なのでランタイムから利用できません。 開発環境 Unity2022.3.20f1 NuGetForUnity 3.1.0 Python.NET 3.0.
概要 本記事ではTransformerというモデルを用いて、株価を予測するモデルを構築したのでまとめています。構築したモデルのインプットとアウトプットは以下の通りです。 インプット:直近60営業日分の株価 アウトプット:5営業日後の株価 アプリケーション化したものに関する記事は以下を参照ください。 https://qiita.com/YusukeOhnishi/items/9778ecd356f76fbee530 また実装したコードについてはGitHub(https://github.com/YusukeOhnishi/Transformer_for_StockPrediction)にアップロードしておりますので、実際に動かしてみたい場合にはクローンしてご使用ください。Google Colaboratoryにて動作することを確認していますので、Google Colaboratoryにてラン
今回はこの中で紹介した例で出てきた「zero-shot-react-description」というAgentを使って以下の質問をしたときに内部でLLMとどういう連携をしているのか?を調べたのでそのまとめになります。 "Who is Leo DiCaprio's girlfriend? What is her current age raised to the 0.43 power?" 今回動作検証に用いたコードは以下の通りです。 import langchain from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.llms import OpenAI langchain.verbose = True llm = OpenAI(temperat
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 各手法の説明を読む前に、「これだけは知っとけ用語」を読んでおくと意味がわかります。知っている人は飛ばしてください。 これだけは知っとけ用語 Retriever LLMの入力として含められる情報には上限があります。GPT-3.5で4k トークン。GPT-4でも、8K, 32Kトークンです。十分大きくなったとはいえ、本一冊分とかは無理なわけです。これ
VOICEVOXとPython VOICEVOXは、公式いわく”無料で使える中品質なテキスト読み上げソフトウェア”とのことです。中品質と書いてありますが、過去に使っていたOpen JTalkよりかなり高品質な気がします。Open JTalkに関する記事は以下です。 とりあえず試してみる分には簡単です。以下サイトに行くと、Windows/Mac/Linuxそれぞれのバイナリがダウンロードできます。 起動すると、以下のような画面が出ます。 小さいアイコンをクリックするとキャラが変えられます。色々しゃべらせてみると、もうこれだけで楽しくて便利です。 このVOICEVOXですが、公式GitHubサイトによると、以下の図のようにコア部分は、MITライセンスでOSSとして提供されています。Pythonバインディングもあるので、手軽にPythonの音声合成ライブラリとして使えます。素晴らしいですね。 上
こんにちは!逆瀬川 ( @gyakuse ) です! 今日は最近作った議事録文字起こしアプリに話者分離機能をくっつけたものを作っていきたいと思います。 ChatGPT APIの使い方、Whisper APIの使い方、Hugging Face Spacesへのデプロイ方法等を知りたい場合は以下の記事をぜひ! できたもの openai_keyにOpenAIのAPIキーを入れる メイン音声ファイルに会話音声 (wav, 25MB以内) を入れる 話者 (1) 参考音声ファイルに話者 (1) の参考音声 (wav) を入れる 話者 (1) の名前を入れる 話者 (2) 参考音声ファイルに話者 (1) の参考音声 (wav) を入れる 話者 (2) の名前を入れる 上記を行って送信ボタンを押すと処理が開始されます。なお、参考音声は10秒程度で大丈夫です。実装全体は以下で確認できます。 話者分離 (S
ChatGPT APIの使い方 実際にChatGPT APIを使ってみましょう。 openai-pythonのインストール 今回はOpenAIのPython用ライブラリであるopenai-pythonを使います。pipを用いて、openai-pythonをインストールしましょう。 pip install openai APIリクエスト ChatCompletion.createで対話を生成できます。たとえば、以下のようなコードになります。 import openai openai.api_key = "sk-..." # APIキー completion = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "こんにちは!"}] ) print(complet
はじめに 2023年3月にChatGPTのAPIが公開されて以降、様々なWebサービスが誕生しています。 私も何か作ってみたくなり、dAIaryという日記作成サービスを作ってみました。 午前と午後のできごとを簡単に入力するだけで、AI(ChatGPT)が良い感じに日記を書いてくれるサービスです。結構面白いので試してみてください! さて、このサービスのバックエンドはAWSを利用し、API Gateway + AWS Lambdaのサーバーレス構成にしていました。クライアントからREST APIリクエストを受け取り、bodyの内容を用いてChatGPTのAPI(gpt-3.5-turbo)を呼び出し、そのレスポンスを返すという動作です。サーバーレスにすることでリクエスト時のみの課金となるため、リーズナブルにサービスを運用できます。 しかしながらChatGPTのAPIは全ての文章の生成が完了して
はじめに ChatGPTに、OpenAI Whisper(Pythonライブラリ)を使用するサンプルプログラムを作ってもらい、実際にそれをGoogle Colab Notebooks上で実行させて、うまく動作するかを試してみました。 まとめ ChatGPTが作成したサンプルプログラムと回答内容に従って、実際にうまく動作するかを試してみたところ: 今回は、ChatGPTの回答だけでは、サンプルプログラムの実行が成功せず。 ChatGPTが作成したサンプルプログラムの手順冒頭にあった「pip install whisper」は、同名の全く違うwhisperライブラリをインストールするので、本来のwhisperを呼び出せなかった模様。 ChatGPTが作成したサンプルプログラムにあった「whisper.transcribe(audio_file, model='large', lang='ja-
概要 モンテカルロ積分の証明を忘れていたことに気づいたので証明を行う. モンテカルロ積分とは乱数を用いた積分手法である. 定義・性質 以下の積分を確率変数を用いて行うことを考える 関数: g(x). 積分: \theta = \int_0^1 g(x) dx. 確率変数: X : X \backsim U(0,1). このとき, \theta について以下が成り立つ. \mathbb{E}[g(X)] = \int_0^1 g(x) \cdot \frac{1}{1-0} dx = \theta. すなわち, \mathbb{E}[g(X)] を推定すればよい. ここで以下の無作為標本を考える. X_1, \cdots ,X_m \quad \text{Where} \quad X_i \backsim U(0,1). このとき以下の確率収束が成り立つ. \begin{align*} \h
pytorch 2.0 になって ROCm 対応がそれなりにきちんとサポートされたようです. ROCm PyTorch のビルドにチャレンジしてから 1 年が経ちました(2019 年 7 月 27 日) (2019 年 9 月 24 日追記) 2018 年の使い物にならないレヴェルから, 5 年ほど経ち, やっと基本的には使えるようになってきた感じでしょうか... 動作確認します! 環境 RX6800(RDNA2) Radeon VII(Vega20) も OK だった! Ubuntu 20.04 HWE kernel(5.15.x) ROCm 5.3.4 ROCm 関連は からたどれる document 参考に一式入れておきます. 既存 ROCm がインストールされている場合は, amdgpu-uninstall で一度パッケージ一式削除しておく必要があります. そうしないと上書きインス
以下の記事は、アウトライン及び原稿の自動生成プログラムによって作成したものです。 通常、GPT-4で長い文章を作成する場合は、最初に全体のアウトラインを作成し、部分ごとに分割して文章を生成して、最後に全体を統合する必要がありますが、このプログラムは、その手順を一括でできるようにしたものです。プログラムは記事の後に紹介します。 第1章: AIの浸透と今後のビジネスへの影響1. はじめにa. AIの重要性と現代ビジネスへの適応 近年、人工知能(AI)の急速な発展とその浸透がビジネス界に大きな影響を与えています。今や、AI技術は製造業からサービス業、さらには情報産業まで幅広く利用されており、企業が生き残るためには、この新技術に適応し実用化しなければならない時代となっています。そこで、本章ではこれまでのAI技術の進化とその局面を明らかにし、今後のビジネスに与える影響について検証します。 b. AI
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2 Pythonは人気な言語だが、実行速度が遅いため、速さを求められる環境になると違う言語が採用される。この研究では、Pythonのような高水準言語のシンプル性とCやC++のような低水準言語の高速性を兼ね備えることができるPythonベースのコンパイラ「Codon」を提案する。 Codonは、Pythonのコードをネイティブなマシンコードにコンパイルするコンパイラであり、シングルスレッドにおいて通常のPythonよりも10倍から100倍速く実行され、CやC++に匹敵する速度を実現できるという。またCodonではマルチスレッドも可能なため、より大きな性能向上
プロンプトプログラミングって要するに、流れが複雑になると自然言語で上手く行くプロンプト考えるのがダルイってのが問題だから、一旦コード書いてからGPT-4に「このコードのプロセスを自然言語で簡潔に説明してください」って言えば自然言語のプロンプトをゲットできるかもな — うみゆき@AI研究 (@umiyuki_ai) March 20, 2023 Pythonのコードを自然言語に変換する code:""" [Goal]=[Prompt] a[0,0]=|Goal]. a[i,1-5] = 5 ideas to achieve a [i,0]. a[i+1,0] = the idea that seems to be the best among a[i,1-5]. """ 変換前のプロンプトこちらのプロンプトを入力する。 このコードのプロセスを、あなたが理解しやすいプロンプトである自然言語に変
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く