今回、FLIの署名に応じるかは結構迷った。まず、AGIが膨大な利点があると同時に相当に慎重に扱うべき技術なのは多数の文献で検討されており一定の合意がある。ただし、現状ではLLMとAGIを直接結びつけることにまだ若干の飛躍がある。 (1/11)
今回、FLIの署名に応じるかは結構迷った。まず、AGIが膨大な利点があると同時に相当に慎重に扱うべき技術なのは多数の文献で検討されており一定の合意がある。ただし、現状ではLLMとAGIを直接結びつけることにまだ若干の飛躍がある。 (1/11)
チャットAIボット「ChatGPT」などを開発する人工知能研究所・OpenAIのCEO(最高経営責任者)であるサム・アルトマンさんが、シンギュラリティ(技術的特異点)とその先を見据え、OpenAIの指針を米国時間2月24日に発表した。 サム・アルトマンさんは、OpenAIのミッションは「人間よりも賢い人工知能(※)が、全人類に利益をもたらすようにすること」であると説明。 一方、人間よりも賢い人工知能がもたらすもの(筆者注:一般にシンギュラリティと解される)は、「誤用、事故、社会的混乱などの深刻なリスク」も伴うと言及した。 その上で「良いことは最大に、悪いことは最小」にして、OpenAIが「最も大切にしている原則」を、短期的な方針および長期的な視点という形で示した。 ※なお、サム・アルトマンさんは「人間よりも賢いAI」をAGIと称しているが、AGI(Artificial General In
従来のAIは画像生成や文章生成、音声分析など特定の分野で性能を発揮するように特化した機械学習アルゴリズムですが、汎用(はんよう)人工知能、いわゆる「AGI」は人間と同じような認知能力や情報処理能力を持つことで、人間のようにさまざまな分野の課題を解決できると期待されています。記事作成時点でAGIはまだ実現していませんが、AI開発団体・OpenAIのサム・アルトマンCEOがAGI開発の展望を発表しました。 Planning for AGI and beyond https://openai.com/blog/planning-for-agi-and-beyond/ アルトマンCEOは、「私たちの任務は、人間よりも賢いAIが全人類に利益をもたらすようにすることです」と述べる一方で、誤用や社会的混乱の深刻なリスクを伴うと指摘しています。それでもAGIの利点は非常に大きいため、AGIの開発を止めるこ
会話型AIサービス「ChatGPT」を手掛ける米OpenAIのサム・アルトマンCEOは2月24日(現地時間)、AGI(Artificial General Intelligence;汎用人工知能)実現への短期および長期のロードマップを発表し、人類改善のためのリスク軽減策について説明した。アルトマン氏はAGIを「一般的に人間より賢いAIシステム」と定義する。 同氏は、人間の知性を超えた存在を成功させることは人類史上最重要事項であり、希望に満ちてはいるが、恐ろしいプロジェクトだと語った。 AGIには誤用、劇的な事故、社会的混乱などの深刻なリスクが伴うが、それでも利点が非常に大きいとしている。いずれにしてもAGIの開発を停止することはもはや不可能であるため、「社会と開発者は正しく開発する方法を見つけ出さなければならない」とアルトマン氏。 同氏は短期計画として以下の3つを挙げた。 AIモデルの現実
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く