@なんでもCopilot#3
はじめにGMOでは、日本のプロンプトワーカーを育成する一環として賞金が出るプロンプトコンテストを毎週開催することを発表しました。 このコンテストは第1回目が23年末に開催され、GPTs部門で1位をとりましたので、その解説記事を書きます。 24年はGPTs Storeもリリースされますので、プロンプトで稼いでいく人がちらほら出てくるのではと考えています。皆様のGPTs作成にお役立てください。 私は今回「ChatGPTに〇〇してほしい」というプロンプトを構造化プロンプトに書き換えてくれるGPTsを作成しました。 これを第1回プロンプトコンテストGPTs部門に出したところ、1位を獲得することができました。 1位は3万円、2位は1万円、3位では5000円貰えます。 プロンプトやGPTsを投稿するだけで応募できるので、応募しない方がもったいないです。 そこで、今回私がどのようなGPTsを作成し、1位
Sometimes, the hardest part of using an AI model is figuring out how to prompt it effectively. To help with this, we’ve created a prompt generation tool that guides Claude to generate high-quality prompt templates tailored to your specific tasks. These templates follow many of our prompt engineering best practices. The prompt generator is particularly useful as a tool for solving the “blank page p
LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ
ChatGPT PluginのLink Readerは信じられないほど便利で、全ての入力情報はLink Readerが理解できるような書式になっているべきだと思えてしまうほどです。 Link Readerを使えば、arXivで公開されている論文の内容をインプットに、簡単な実装をChatGPTに作成してもらうことも容易です。プログラマとしては長々と文章を書かれるよりも、とりあえずコードの形になっていた方が理解が容易なので、簡易的であってもコードの形に落としてくれるのは助かります。 そこで今回はタイトルにあるPlan-and-Solveプロンプト論文を例に簡易コードを生成し、簡易コードを元にMicrosoft guidanceのプロンプトを作成して実行してみたいと思います。 Plan-and-SolveとはCoT(Chain-of-Thought)のように最初からステップバイステップで考えるの
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く