大規模言語モデル(LLM)の弱点であるハルシネーション(幻覚)への対策として、最も期待されているのはRAG(Retrieval-Augmented Generation、検索拡張生成)だ。RAGに強みを持つカナダのスタートアップ、Cohere(コーヒア)のNick Frosst(ニック・フロスト)共同創業者は、RAGの高度化に「Rerank(再順位付け)」という技術が欠かせないと指摘する。 RAGはLLMに対して、事前学習した知識だけでなく外部の知識情報も参照させてテキストを生成させる手法だ。RAGを活用すれば、企業の内部情報に基づいた回答をLLMに生成させることも可能であるため、LLMがデタラメな回答を出力するハルシネーションへの対策として有望視されている。 LLMと検索を組み合わせるのが「RAG」 RAGは「検索拡張生成」というネーミングが示すとおり、LLMに参照させる知識情報の選択に
![OpenAIのライバル、Cohere共同創業者が一押しするAI幻覚対策の切り札「Rerank」](https://cdn-ak-scissors.b.st-hatena.com/image/square/b6dd072f9e258ec5ea71fc36479e8fca97036775/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fatcl%2Fnxt%2Fcolumn%2F18%2F00692%2F032100128%2Fsns_gafa.jpg%3F20220512)