サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
画力アップ
qiita.com/sugiyama404
はじめに PythonのDockerfileを作成する際、ネット上で適切な情報が見つからず、試行錯誤することがあります。そこで、ここでまとめてみます。 完成品 # 開発用ステージ FROM python:3.11.9-slim-bookworm AS developer ENV PYTHONUNBUFFERED=1 ENV PYTHONDONTWRITEBYTECODE=1 WORKDIR /app RUN apt-get update \ && apt-get install -y --no-install-recommends \ wget=1.21.3-1+b2 \ && apt-get -y clean \ && rm -rf /var/lib/apt/lists/* COPY requirements.txt ./ RUN pip install --no-cache-dir -
はじめに インフラはDockerとDocker Composeです。 バックエンドはactix-web(Rustのフレームワーク) フロントエンドはReact(TypeScriptのフレームワーク) データベースはMySqlです。 リマインダー(todoリスト)を目標に開発を行います。 レポジトリーはこちらです。 RustはCargo.tomlに記述してパッケージをダウンロードする方式です。 パッケージの最新バージョンは以下で確認すると良いです。 また、Rustはtargetレポジトリーが非常に重いので、gitignoreに入れておくといいです。 バックエンド側 バックエンド側を実装します。 環境構築
はじめに このアルゴリズムの最大の強みは、ローソクチャートを観測する予測と指値注文板を観測する執行戦略を分離し、強化学習によって執行戦略を強化させたところです。これは、売買決定から注文メッセージの送信、注文決定の動きに開きがあるからです。 論文の本文は以下のリンクから読めます。 データセットは一般公開されているFI-2010データセットを使用します。また、予想モデルは以下を使用します。 実装を行なった全編は以下より見ることができます。 ※環境の構築等自信がないので、修正点など是非ご指摘頂ければ幸いです。 強化学習アルゴリズム Ape-Xアルゴリズム Ape-Xは、代表的なoff-poicyであり、以下のモデルを加味したモデルです。 Double Q-learning(Double DQN) 優先度付き経験再生(Priority Experience Reply DQN) Dueling N
はじめに 「強化学習と自然言語処理を用いたチャットボット」を作る前工程として、「自然言語処理(BERT)を用いたチャットボット」を作ります。 レポジトリはこちらです。 BERTとは1 BERTは、google検索やDeeplなどで使われています。とても、高精度で使用しやすいです。 BERTの学習では、事前学習とファインチューニングの二つに分かれます。事前学習で言語の基礎を学習し、ファインチューニングで、個別のタスクに合うように調整します。 事前学習 事前学習は、その言語がどうゆう構造なのか、単語の意味はどういう意味なのかなど言語の基礎を理解させます。具体的には、TransformerがMask Language ModelとNext Sentence Predictionで文章から、文脈を双方向に学習します。 Mask Language Model 文章から、特定の単語を15%ランダムに選
このページを最初にブックマークしてみませんか?
『@sugiyama404のマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く