
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Vim/Neovimを通してLLMと対話する ─ prompt-bufferという存在
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Vim/Neovimを通してLLMと対話する ─ prompt-bufferという存在
LLMとの対話、Vimとの対話 昨年(2023年)はLLMがプログラミング界隈の様々なシーンで使われ始めた一年... LLMとの対話、Vimとの対話 昨年(2023年)はLLMがプログラミング界隈の様々なシーンで使われ始めた一年でしたね。 OpenAI ChatGPTしかり、GitHub Copilotしかり、LLMと語り合うことでプログラミングの小さな課題はいともたやすく解決されるようになりました。 とくにVSCodeはGitHub Copilotとの融合が著しく、Chat用のUIが備えられており、 文脈を読んだAIと気軽に対話できる体験は、なかなかに代えがたいものがあります。 参考:GitHub Copilot Chat beta now available for every organization(GitHub ブログ) しかし、Vimにおいてそのような「対話的UI」をゼロから構築するのは、なかなかに複雑な実装を要求されることでしょう。 Terminalしかり、各種のFuzzy Finderプラ