タグ

2026年2月2日のブックマーク (4件)

  • GPUが無い環境でローカルLLMを動かす方法

    はじめに こんにちは! ハッカソンでGPUがないノートパソコンで、ローカルLLMを動かすことに苦戦したアヤノです。 たまにGPUがない環境でローカルLLMを使わざるを得なくなるため、その方法をまとめました。来ならローカルでOllamaを動かす方が良いのですが、今回はどの環境でも確実かつ簡単に動かすためにDockerの上でOllamaを動かす方法を紹介します。Dockerを使うことでハッカソンのためだけに環境を汚さず、誰のパソコンでも動くシステム構成に繋がります。 記事は「Dockerを触ったことがあり、GPUなし環境でLLMを動かしたい人」向けです。 TL;DR GPUなしでも、Ollama + DockerでローカルLLMは実用レベルまで高速化できる 高速化のポイントは以下の4つ リソース解放: Docker Desktopのメモリ・CPU割り当てを最大にする。 モデル選定: 「パラ

    GPUが無い環境でローカルLLMを動かす方法
  • なぜcronからsystemd timerへ移行しているのか?歴史と設計思想から理解する

    この時代において cron は、軽量・シンプル・依存関係なしという 非常に優れた設計でした。 cron の「通知」はログではなくメール cron は「ログを溜める」より「異常を通知する」発想でした。典型的には stdout/stderr をメールで送るのが当時の設計です。 2. crontab の何が問題だったか? cron は長年使われてきましたが、現代のサーバ運用では次の問題が顕在化しました。 問題① 実行されたか分からない(状態がない) cron には「実行履歴」という概念がありません。 成功したか? 実行されたか? 何秒かかったか? これらを OS 側で追跡しません。 問題② ログが自動で残らない(可観測性が低い) cron は標準でログを「保存」しません。 そのため実務ではよく次のようになります。 出力先は人力 ローテーションも自前 失敗検知も自作 運用が属人化しやすいのが問題で

    なぜcronからsystemd timerへ移行しているのか?歴史と設計思想から理解する
  • 生成 AI 時代のアイデア探索方法 (2026 年版) - 🐴 (馬)

    生成 AI の登場でプログラミングをはじめとした知的作業の方法が大きく変わってきています。 特に2025年は、調査やアイデア生成のタスクにおいて、生成AIの実用度が増したように思います。ChatGPT Pro 5.2 の登場と、着実な NotebookLM の進歩+Gemini 3とNano Bananaは、調査や情報の構造化という観点でとても大きな進展でした。 アイデアの作り方については、過去、2023年に「Climate Tech スタートアップの始め方」という記事でまとめたことがあります。今回は、生成AI以後の、2026年2月時点でのお勧めの「アイデアの探索方法」をまとめてみたいと思います。 🎯 この記事のゴール この記事では、アイデア(仮説)を作るステップを細かく分けながら、その途中で生成AIをどう使うかについてお話しします。 アウトプット目標は「この仮説を元に人に会いに行けば、

    生成 AI 時代のアイデア探索方法 (2026 年版) - 🐴 (馬)
  • 【正直、どう使ったらいいの?】GeminiとNotebookLMの連携機能についての考察|【AI研究中】ただし

    はじめに:ナレッジ活用の新たなフェーズへGoogleAIエコシステムにおいて、生成AI「Gemini」と、パーソナルな情報整理・検索に特化した「NotebookLM」の連携機能が実装されました。 これにより、Geminiのチャットインターフェースから、NotebookLM内に構築した自身のナレッジベース(ノートブック)を直接参照することが可能になりました。 この統合は、単なる機能追加にとどまりません。Geminiが持つ「目(画像認識)」や「耳(音声認識)」のような感覚器官と、NotebookLMが持つ「正確な記憶(ドキュメント管理)」が接続されることで、私たちの業務フローにおける情報の扱い方が劇的に変化する可能性を秘めています。 記事では、この連携機能がもたらす具体的なメリットを詳しく解説するとともに、その裏側で動いている技術的なメカニズムを紐解き、どのように使い分けるのが最適解なのか

    【正直、どう使ったらいいの?】GeminiとNotebookLMの連携機能についての考察|【AI研究中】ただし