2026/01/30 にオンラインで行われた「ZOZO開発部門のAI活用から見るFindy Team+でつかんだ「現在地」と成果最大化のポイント」で発表した登壇資料です。 https://jp.findy-team.io/event/live/zozo_ai_260130/ 株式会社ZOZO …
今回実施したのは、プロンプトテンプレートとチャットモデルを使って、シンプルなLLMアプリケーションを作るチュートリアル。 LangSmith これはチュートリアルページに書かれている通り。 言語モデルの使用 まず、言語モデルを単体で使う方法を学ぶ。LangChainはさまざまな言語モデルをサポートしており、相互に活用できる。 LMStudioでは、OpenAIの使用のエンドポイントを公開できるため、langchain[openai]を使う。 チュートリアル内で使っている、init_chat_modelはLMStudioを使う場合には使えない(使えるかもしれないが、ChatOpenAIを使う方が簡単)ため、下記のように書き換える。 from langchain_openai import ChatOpenAI model = ChatOpenAI( api_key="dummy-key",
はじめに # 前回は、LM Studio+Gemmaでクラウドに頼らないAI環境を構築しました。 本記事では、LM Studio を使ってローカルでLLM(例:Gemma 3 4B)を動かし、さらに LangChain と Streamlit を組み合わせて、クラウドに頼らずに動作する RAG(Retrieval-Augmented Generation) 環境を構築します。 題材として、誰もが知っている「桃太郎」の物語を使い、自分で用意した知識ベースを読み込む ローカルAIチャットボット を作っていきます。 今回のゴールは以下です。 LM StudioでローカルLLMをAPIサーバーとして動かす LangChainでRAG(検索+生成)パイプラインを構築する StreamlitでチャットUIを作成する すべて自分のPC上で完結し、インターネット接続がなくても動作します。 まさに「自分だけ
はじめに 本記事では、大規模言語モデル(LLM)とMLOpsの連携を学ぶ第一歩として、ローカル環境でLLMを活用したチャットボットの構築に焦点を当てます。特に、LM StudioとLangChain、Streamlitを組み合わせた実践的なアプローチを紹介します。 既存のチュートリアル記事(約2年前のもの)を参考にしつつ、ツールのインストール方法やライブラリのAPI変更点など、現在の環境に合わせた具体的な手順と技術的な考察を加えて解説します。最新の環境でスムーズにローカルLLMアプリケーションを構築できる実践的な情報の共有を目指します。 環境 本記事の動作確認は以下の環境で行いました。 MacBook Pro 14インチ 2021 チップ:Apple M1 Pro メモリ:32GB macOS:15.5(24F74) ゴール PythonでローカルLLMとチャットするアプリケーションを構築
前置き こんにちは。スマートバンク 新春エンジニア駅伝 2026 のトリを任された最終走者の @yutadayo です。 昨年に株式会社スマートバンクエンジニアが取り組む2025年に解決していきたい重要技術課題10選 というエントリーを書きました。 blog.smartbank.co.jp 25年度はAI機能のプロダクトへの組み込みや、マスコットキャラのワンバンの登場、ポイント機能のリリース、念願の非接触決済対応(GooglePay)といった、様々なリリースを行ってきました。 ワンバンクは少しずつ進化しつつも、まだまだ理想に向けて発展途上の段階です。 現在のワンバンクは、お金を「使う」「借りる」「わかる」部分の機能を提供していますが、私たちの暮らしには、他にもお金にまつわる課題は山積しています。 例えば、お金の流れがわかった上で、貯められるようにしたい。さらには、貯めたお金を投資して増やせ
今回は、上のHuggingfaceにアップロードされている、GLM-4.7-Flashの改良版である、「GLM-4.7-Flash-Grande-Heretic-UNCENSORED-42B-A3B-GGUF」の紹介になります。 ただ、まずはGLM-4.7-Flashについて知った上で、どういった工夫がなされたのかということを知らないとなかなかイメージが湧かないため、その部分を先に説明しておきます。 以下の論文がGLM4.7を理解するのに重要な資料になります。 ベースモデル:GLM-4.5とは GLM-4.5は、Zhipu AIと清華大学によって開発された、「Agentic(エージェント能力)、Reasoning(推論)、Coding(コーディング)」の3つの能力(ARC)を統合することを目指した大規模なMixture-of-Experts (MoE) モデルです。 大規模MoEアーキテク
Laravelは単なるバックエンドフレームワークではない。急速に進化し続けるLaravelエコシステム。 はじめに:Laravelは単なるバックエンドフレームワークではない 「LaravelってPHPのバックエンドフレームワークでしょ?」 そう思っている人は多いのではないでしょうか。確かにLaravelはPHPのWebフレームワークとして生まれました。しかし、今のLaravelはそれだけではありません。 Laravelは、Web開発に必要なほぼすべてを提供する「エコシステム」を構築しています。フレームワークの機能だけでなく、公式パッケージ、フロントエンド、開発ツール、さらにはクラウドサービスまで。この記事では、急速に進化し続けるLaravelエコシステムの全体像を紹介します。 Web開発に必要なすべてが揃っている パッケージ選びに迷わない設計思想 他のフレームワークでは、「認証には何を使お
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く