2023年6月15日のブックマーク (4件)

  • Gorilla

    UC Berkeley, Microsoft Research sgp@berkeley.edu, tianjunz@berkeley.edu Gorilla is a LLM that can provide appropriate API calls. It is trained on three massive machine learning hub datasets: Torch Hub, TensorFlow Hub and HuggingFace. We are rapidly adding new domains, including Kubernetes, GCP, AWS, OpenAPI, and more. Zero-shot Gorilla outperforms GPT-4, Chat-GPT and Claude. Gorilla is extremely r

    p-baleine
    p-baleine 2023/06/15
  • Native JSON Output from GPT-4 | Hacker News

    p-baleine
    p-baleine 2023/06/15
  • Goが循環インポートをエラーにする理由

    循環インポートの問題点 現代のプログラミング言語の多くは1パスでプログラムコードを解釈します。インタプリタ型は当然としてC/C++も例外ではありません。つまり「コンパイル・実行」されるまでにソースコードを2度パースすることはありません。 さらにプログラム言語の多くは多重定義はバグの元なのでエラー扱いになります。なので対策の無いヘッダーファイルをincludeした時、再度同じヘッダーファイルが参照された場合に「多重定義」になってしまいます。 C/C++ではそのような「多重定義」を回避するために「インクルードガード」という対策をヘッダーファイルに施します。C/C++ではプリプロセッサという仕掛けに依存していてコンパイラは重複する定義がそれぞれどこのファイルを読み込んだ結果かを判別できません。なので「インクルードガード」という対策がヘッダーに必要なのです。 しかし、「インクルードガード」は方針が

    Goが循環インポートをエラーにする理由
    p-baleine
    p-baleine 2023/06/15
  • 思考のツリー:システム2の概念をLLMに取り込み、CoTベースのGPT-4よりもさらに強力に

    このような計画プロセスを設計するために、人工知能(および認知科学)の起源に戻り、1950年代からNewell、Shaw、Simonが探求した計画プロセスからインスピレーションを得ました。Newellたちは、問題解決を、木として表現された組合せ問題空間の探索として特徴付けました。そこで著者たちは、言語モデルによる一般的な問題解決のためのTree of Thoughts (ToT)フレームワークを提案します。Fig.1が示すように、既存の方法が問題解決のために連続的な言語シーケンスをサンプリングするのに対し、ToTは積極的に思考の木を維持し、各思考は問題解決への中間段階として機能する首尾一貫した言語シーケンスとなります(Table 1)。このような高レベルの意味単位により、LMは、言語でもインスタンス化される意図的な推論プロセスを通じて、異なる中間思考が問題解決に向けてどのように進んでいるかを

    思考のツリー:システム2の概念をLLMに取り込み、CoTベースのGPT-4よりもさらに強力に
    p-baleine
    p-baleine 2023/06/15