タグ

promptと*readingに関するsh19910711のブックマーク (6)

  • arXivを用いた研究プレイヤーの調査手法 - LLM関連論文を例に|hayataka

    はじめに arXivに登録されているLLM関連論文を調査した論文が公開されました(Topics, Authors, and Networks in Large Language Model Research: Trends from a Survey of 17K arXiv Papers)。調査内容・結果の詳細は、下記のAIDBの記事が参考になります。 話を戻します。この調査論文は内容もさることながら、arXivを用いた調査手法も参考になります。データやコードも公開されているので、実際に触ってみると良いでしょう。このnoteでは、その手法に着目して紹介したいと思います。 ちなみに、この論文で収集したLLM関連論文は、下記のキーワードがタイトル・アブストラクトに含むものです。2018年以降のもので、16,979件ヒットするようです。 "language model" OR "foundat

    arXivを用いた研究プレイヤーの調査手法 - LLM関連論文を例に|hayataka
    sh19910711
    sh19910711 2024/06/13
    "組織名は論文本文PDFから抽出 + 最初の100行 + ドメインから組織名への変換 / 被引用数はSemantic Scholar / arXiv API: affiliationという情報があるのですが、ほとんどデータが空白" arXiv:2307.10700 2023
  • GoogleのNotebookLMを使って複数論文レビューをする|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請

    記事はNotebookLMを使った医学研究論文のレビュー方法について、実践的な知識を提供します。以下のような情報が得られます。 NotebookLMの概要と特徴について NotebookLMを使って複数の医学研究論文をレビューする方法が分かります。具体的なプロンプトの例も提示されています。 NotebookLMの長所(正確性)と短所(回答の制限、アップロード数の制限など)について NotebookLMを効果的に活用するためのTips(論文数の制限、ピン留めによる保存など) NotebookLMの概要NotebookLMは、Googleが開発した革新的な生成AIサービスです。ユーザーが指定したデータを基に、AIが回答や要約を行うことができます。2024.6.9時点では無料で使えますが今後有料化の可能性はあるかもしれません。最新のモデルであるGemini 1.5 Proが利用されており、10

    GoogleのNotebookLMを使って複数論文レビューをする|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請
    sh19910711
    sh19910711 2024/06/12
    "NotebookLM: 論文に書いてある内容については答えてくれますが、書いていないような解釈や応用についてはあまり答えてくれません + 入力データに基づいて正確に回答するため、事実と異なる情報を生成するリスクが低い"
  • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

    2.3k{icon} {views} 複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした

    Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
    sh19910711
    sh19910711 2024/04/28
    "GPT-4-TurboのJSONモードを使い、検索ワードを生成 + 「Arxiv検索で」と明示させればそれっぽい / Embeddingに対してTSPを解いてソート + テーマ内での近しい内容同士が数珠つなぎで並べ替えた上で与えられたほうが良い"
  • AIを使った論文の読み方

    近年の AI の進歩により、論文の読み方も大きく変化を遂げました。AI を活用することで以前と比べてはるかに簡単かつ早く論文が読めるようになりました。 以前私の個人ブログにて、論文の読み方やまとめ方を紹介しました。その時には要約ツールは用いていませんでしたが、最近はすっかり要約ツールを多用するようになりました。 稿では、最新の AI を使った論文の読み方を丁寧に紹介します。 基的な流れ 稿でおすすめするのは ChatGPT か Claude で要約を生成して論文の概要をつかみ、Readable で精読するという方法です。ChatGPT や Claude では単に全体の要約を生成するだけでなく、肝となる箇所を特定したり理解するためにも用います。具体的な手順については後の項で解説します。 私が特定のテーマについて調査を行う場合には、テーマに関係する論文を被引用数の多いものを中心に 10

    sh19910711
    sh19910711 2024/04/17
    "精読論文の選定の基準は、要約を読んで面白いと思ったかどうか / 10 万文字の論文を 1000 文字に要約すると 100 倍早く読める + 9 万 9 千文字分のディテールにこそ価値のある知見が組み込まれていたりする"
  • LoRAに関する論文をなんJ風に解説してまとめてみた|TokiToki

    はじめに論文をなんJ風に解説してもらうと驚くほどわかりやすくなるようなので、LoRAに関する論文(LoRA改良版など)で試してみました。今回は、Claude 3とChatGPT4を使ってまとめと比較表を作成します。 こちらは論文を読むのが苦手な方に向けた記事です。ClaudeおよびChatGPTは間違いを犯すことがありますので、正確な情報は参照論文を確認してください。 なんJ風のプロンプトは、以下の記事を参考にさせていただきました。 使用したAIなんJ風の解説:Claude3 Ops 解説を要約:ChatGPT4 要約から比較表作成:Claude3 Ops、ChatGPT4 LoRA(Low-Rank Adaptation)とはLoRAは、事前学習済みモデルの重みを固定し、訓練可能なランク分解行列を注入する手法です。これにより、大規模言語モデルのファインチューニングコストを大幅に削減します

    LoRAに関する論文をなんJ風に解説してまとめてみた|TokiToki
    sh19910711
    sh19910711 2024/03/29
    "論文をなんJ風に解説してもらうと驚くほどわかりやすくなる / 要約用のプロンプトに小学生と入れるとイメージはなんとなくわかるような説明になるが、あまりにも抽象的になってしまう"
  • GWは自作DBをやってた - k-murakami0609の日記

    年1くらいで低レイヤーとか自作XXにチャレンジすることをやっており、今年のGWは自作DBにチャレンジしていたのでそれについての日記です。(まだ全然終わってないです) WEB+DB PRESS 最初は WEB+DB PRESS の「作って学ぶ RDBMS のしくみ」をやりました。 WEB+DB PRESS Vol.122 | WEB+DB PRESS編集部 | コンピュータ・IT | Kindleストア | Amazon このはわずか100ページ程度で、情報が適切に取捨選択され、全体像が把握しやすくなっています。文章も読みやすく、約2~3時間でざっと読むことができました。 これを実装しても良いんですけど、GWの時間余りそうだな!と思ったので、別途格的なを買ってやることにしました。 Database Design and Implementation 続いて取り組んだのは Databas

    GWは自作DBをやってた - k-murakami0609の日記
    sh19910711
    sh19910711 2023/05/19
    "DeepLの pdf まるごと翻訳: 言っていることは理解できるが日本語として不自然な部分があり、それが学習のノイズになっていた / 途中からChatGPT(GPT-4)で翻訳してもらったところスピードアップ + 一週間で160ページくらい"
  • 1