まるでPS5版のプロコン。「DualSense Edge」が過去最安は大盤振る舞いすぎる #Amazonセール
<この記事の著者> ばんか(bamka) - Tech Team Journal Web制作会社の会社員として働きつつ、個人でブログ/メディアライターとしても活動するパラレルワーカー。 ChatGPT等AIを公私で駆使し、ITツール・ガジェットを用いて人々の生活をより豊かにするための活用術を提供するブログも運営。 Webサイトや本で学んだ知識を、自分のものにして活用できるレベルまで引き上げるには、アウトプットが重要だと考えて、積極的にアウトプットするようにしています。 ただ、アウトプットの仕方も大事。知った知識をただSNSにコピペで貼り付けるようなやり方は、良質なアウトプットとは言えないと考えています。 そこで今回は、私が実践している「良質なアウトプット」に転換するために気を付けているポイントについてお話しします。 【目次】 1:第三者に見てもらう 2:自分の言葉で語る 3:図にまとめる
はじめに 学習におけるChatGPTの活用方法といえば、「ChatGPTから教えてもらう」ということが多いと思います。 実際、私もそうです。 本記事は逆に 「ChatGPTに教える」 という使い方もありではないかという内容になります。 目次 何でChatGPTに教えるの? 「人に教える」ことで記憶への定着率が高くなると感じた経験 実際にChatGPTに教えてみる さいごに 何でChatGPTに教えるの? 「学習にはアウトプットが重要」 ということを耳にしたことがある人は多いかと思います。 主なアウトプットには、次のような手法があります。 Qiitaなどに技術記事を書く 勉強会で発表する 人に教える 自分のこれまでの経験を振り返ってみてもアウトプットをしていると記憶への定着率が高いです。 特に「人に教える」という行為は、記憶への定着率が高まると感じています。 ただ、双方向のやりとりが必要とな
LLMのファインチューニングで何ができて、何ができないのかまとめました。 1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。 OpenAIのドキュメントには、次のように記述されています。 ファインチューニングは、プロンプトに収まるよりも多くの例で学習することで、Few-Shot学習を改善します。一度モデルをファインチューニングすれば、プロンプトにそれほど多くの例を提供する必要がなくなります。これにより、コストを削減し、低レイテンシのリクエストを可能にします。 しかし実際には、それよりもかなり複雑です。 LLMには「大量のデータを投げれば自動的に解決する」ような創発的な特性があるため、ファインチューニングもそのように機能すると人々は考えていますが、必ずしもそうではありませ
みなさんの会社はChatGPT賛成派ですか?それとも反対派? 実はChatGPT導入済みの各企業でアンケートをとったところ、7割の従業員がそのメリットを肯定しています。 とはいえ業務に素のChatGPTを取り入れる場合、セキュリティや信頼性の面で抵抗がありますよね。 そこで当記事ではITのプロが手掛ける、ChatGPTを使ったサービスを17個紹介します。 最後まで目を通していただくと、ChatGPT導入までの心理的なハードルが下がるはずです。ぜひ最後までお読みください。 ChatGPTが組み込まれているサービス12個 まずはデフォルトでChatGPTが組み込まれているサービスを12個紹介します。用途別にカスタマイズされているので、なんでもでき過ぎるChatGPTよりも、使いやすいはずです。 【チャットボット作成サービス】「SiteGPT」でお客様対応を劇的に向上 「SiteGPT」とは、自
はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 単発のプロンプトテクニックについてはこちらご覧ください。 これだけは知っとけ用語 各手法の説明を読む前に、これらの用語を読んでおくと各手法がわかります。知っている人は飛ばしてください。 プロンプトエンジニアリング 入力(プロンプト)を工夫して性能をあげようというアプローチ。 機械学習系で精度アップといえば、追加学習させたりモデルを拡張するのですが、LLMではモデルが大き過ぎてコストが洒落になりません。 そのような事情からプロンプト側を工夫することで、回答に直接影響を与えるという手法が発達しています。 ファインチューニング モデルを新たな学習データで追加学習させ、モデルのパラメータを更新し、精度を高め
今、ChatGPTの使い方を学ぶのって、効率悪くないですか? 今のChatGPTが抱えている問題を回避するためのハックをいろいろ覚えても、そんな問題の大半は、今後のバージョンアップでどんどん克服されていっちゃうんじゃないですか? 初期バージョンの抱えていた問題点の多くが一通り改善した後にChatGPTを使い始めた方が、無駄足を踏まずに、本当に必要なノウハウだけを、効率よく学習できるのでは? また、今、ChatGPTの使い方のWeb記事を読んで学習しても、そこに書かれているノウハウって玉石混交じゃないですか? 1年後、2年後にその記事を読み返したとき、そこに書かれていることの大半は、重要度の低いことだったり、ピント外れだったり、意味のないことだったり、間違いだったりすることが判明することになったりしないでしょうか? だって、それらを書いているのは、まだChatGPTの経験が浅く、理解度の低い
ちょっと前に以下のようなことを放言したら、思いの外反響が多くてちょっとびっくりしたのでした。それだけ、現代のLLM chatbot / generative AIの台頭に期待と不安を抱いている人が多いということの裏返しなのでしょう。 既に色々コメントが出ているけど、我々人類が「知的労働」だと思っていることの大半が実は「過去実績をなぞって適当にその場に合わせて組み立てているだけ」なんじゃないかと訝っているので、そういう「自称知的労働」は多分LLMで代替されると思う。新奇なものを生み出す仕事は相変わらず残る https://t.co/GGK41vSDcn— TJO (@TJO_datasci) 2023年3月15日 昨年の年末振り返り記事でも話題にしたChatGPT(そして後続の各種LLM chatbot)ですが、今年に入ってからの話題の広がり方には想像を超えるものがあり、ついに朝の情報番組な
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く