会話型AIサービス「ChatGPT」を手掛ける米OpenAIのサム・アルトマンCEOは2月24日(現地時間)、AGI(Artificial General Intelligence;汎用人工知能)実現への短期および長期のロードマップを発表し、人類改善のためのリスク軽減策について説明した。アルトマン氏はAGIを「一般的に人間より賢いAIシステム」と定義する。
同氏は、人間の知性を超えた存在を成功させることは人類史上最重要事項であり、希望に満ちてはいるが、恐ろしいプロジェクトだと語った。
AGIには誤用、劇的な事故、社会的混乱などの深刻なリスクが伴うが、それでも利点が非常に大きいとしている。いずれにしてもAGIの開発を停止することはもはや不可能であるため、「社会と開発者は正しく開発する方法を見つけ出さなければならない」とアルトマン氏。
同氏は短期計画として以下の3つを挙げた。
AIモデルの現実世界への展開では、ユーザーとユースケースを注意深く監視し、維持する
AIモデルの展開で、「初期設定」は制限し、各ユーザーによる調整を可能にしていく
システムの管理方法やシステムが生み出す利益を分配する方法、システムへのアクセスを公平に共有する方法という3つの問題についてグローバルな対話を
長期的には、「人類の未来は人類が決定すべき」であり、AGI構築については公開協議が必要だと主張する。
AGI開発の進捗が現在のペースで続けば、「大きな変化が驚くほど早く起こる可能性」があり、「世界は現在とは大きく変わる可能性があり、そのリスクは計り知れず」、「世界に深刻な害を及ぼす可能性がある」という。そのため、「重要な分岐点で減速する調整が重要」で、人間社会にAGIに「適応するための十分な時間を与えることが重要だ」としている。
ちなみに、OpenAIのLLM「GPT-3」の次世代モデルを採用している米Microsoftの「新しいBing」にアルトマン氏のブログの内容を要約してもらった内容は以下の通りだ。
https://www.itmedia.co.jp/news/articles/2302/27/news104.html
引用元:https://hayabusa9.5ch.net/test/read.cgi/news/1677482087/
続きを読む
Source: ニュー速クオリティ
コメント