タグ

2024年4月25日のブックマーク (5件)

  • GitHub Actionsを使ってリリースのたびにリリースノートとリリースタグを自動作成しよう! - Qiita

    はじめに 何かしらのプロダクトをリリースする際に リリースノート リリースタグ を作成するのが一般的です GitHub Actionsを使って 変更箇所 作業者 などを記載したリリースノートを下記のように自動作成できます また、プロジェクトのバージョンが記載されたリリースタグを下記のように自動生成できます 今回はリリース用ワークフローの設定からreleaseブランチをmainブランチへマージ後にリリースノートが作成されるところまで解説します GitHub Actionsの設定 以下のようなリポジトリ構成で設定ファイルを作成します tree . └── .github ├── release-drafter.yml └── workflows └── release-drafter.yml name-template: 'v$RESOLVED_VERSION 🌈' tag-template

    GitHub Actionsを使ってリリースのたびにリリースノートとリリースタグを自動作成しよう! - Qiita
    ryshinoz
    ryshinoz 2024/04/25
  • いちばんやさしいローカル LLM|ぬこぬこ

    概要ローカル LLM 初めましての方でも動かせるチュートリアル 最近の公開されている大規模言語モデルの性能向上がすごい Ollama を使えば簡単に LLM をローカル環境で動かせる Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに小さくできる 1. はじめに大規模言語モデル(LLM)の数は数年前と比べてたくさん増えました。有名な LLM を使ったチャットサービスとして、OpenAIChatGPT や Anthropic の Claude、Google の Gemini などがありますが、これらのサービスの中で利用されている大規模言語モデルは公開されていません。 現状、様々な評価指標により LLM の性能が測定されていますが、

    いちばんやさしいローカル LLM|ぬこぬこ
    ryshinoz
    ryshinoz 2024/04/25
  • 初代『ウィザードリィ』のフル3Dリマスター版がNintendo Switch、PS4、PS5、Xbox One、Xbox Series X/S、PC(Steam)に向け5月23日に正式リリース決定。難度調整機能やモンスター図鑑など、追加要素多数

    Wizardryシリーズ第1作『Wizardry: Proving Grounds of the Mad Overlord』のフル3Dリマスター版が5月23日(木)にリリース決定! 株式会社ドリコム(社:東京都品川区、代表取締役社長:内藤裕紀)は、当社が国内外の商標権を保有するIP「Wizardry(ウィザードリィ)」に関して、DIGITAL ECLIPSE(所在地:アメリカ カリフォルニア州、President : Ethan Zoubek)がWizardryシリーズ第1作をリメイクした『Wizardry: Proving Grounds of the Mad Overlord』の正式リリース版(日語をはじめとした6カ国語に対応)が5月23日(木)に Nintendo Switch™ / PlayStation®4 / PlayStation®5 / Xbox One / Xbox

    初代『ウィザードリィ』のフル3Dリマスター版がNintendo Switch、PS4、PS5、Xbox One、Xbox Series X/S、PC(Steam)に向け5月23日に正式リリース決定。難度調整機能やモンスター図鑑など、追加要素多数
    ryshinoz
    ryshinoz 2024/04/25
  • ブラウザからDBに行き着くまでただまとめる

    はじめに あなたはブラウザからデータベース(DB)に情報が行き着くまでにどんな技術が使われているか説明できますでしょうか? どのようなプロトコルが用いられ、どの技術を駆使してサーバと通信しているのか、Webサーバでは何が行われ、どのようにして負荷が分散されているのか、トランザクションはどのように管理されているのか、そしてデータベースではシャーディングや負荷対策のためにどのような対策が取られているのか… なんとなくは理解しているものの、私は自信を持って「こうなっている!!」とは説明ができません。 そこで今回は「大規模サービス」を題材としてブラウザからデータベースに至るまでの、情報の流れとその背後にある技術について、明確かつ分かりやすく解説していきたいと思います。 対象としてはこれからエンジニアとして働き出す、WEB、バックエンド、サーバーサイド、インフラ、SREを対象としております。 1.

    ブラウザからDBに行き着くまでただまとめる
    ryshinoz
    ryshinoz 2024/04/25
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    ryshinoz
    ryshinoz 2024/04/25