汎用人工知能は、人間が持つ高度な問題解決能力、批判的思考、認知機能を完全に備えた AI エージェントです。これは現在、人工知能の仮想分野であり、研究者や組織が積極的に開発に取り組んでいます。
人工知能 (AI) は近年急速に拡大しています。また、現代社会に対応しようとしている組織のほとんどが注目する話題にもなっています。経営幹部から初級レベルの従業員まで、あらゆるレベルの専門家が AI の未来について期待 (および少なからぬ懸念) を示しています。利用可能な生成 AI が急激に普及したことで、当初は、多くの分野で人間の従業員がすぐに AI に置き換えられてしまうのではと考えた人が大勢いました。
これまでのところ、AI によって人間が必要なくなったということにはなっていません。むしろ、ビジネスの世界では、AI の機能を活用して効率性を高めたり、ワークフローを最適化したりすることが始まっています。この一因となっているのは、現在利用可能な AI が、研究者が弱い AI と考えているものであるという事実なのかもしれません。強い AI は、汎用人工知能 (AGI) とも呼ばれ、人間のような能力を持ち、世界にさらに劇的な影響を与える可能性があります。ただし、現在は仮想に過ぎないこの夢が実現すればの話です。
AI (または弱い人工知能) は、特化したタスクを実行できるテクノロジーで、多くの場合、そこでは人間よりも優れた能力を発揮します。現在、多くの人が慣れ親しんでいる AI は弱い AI であり、その機能は限られているにもかかわらず、大成功を収めた AI 開発です。弱い AI には、リアクティブマシンと限定記憶型マシンの 2 種類があります。リアクティブマシンは、直近の要求に応答しますが、データを保存したり、過去の経験から学習したりすることはできません。限定記憶型マシンは情報を保存し、新しいデータに遭遇するたびに学習していきます。
多くの人は、弱い AI がいかに日常生活に浸透しているかを認識していません。AI の例をいくつか紹介します。
- 生成言語モデルとしての ChatGP
- メールのスパムフィルター
- Spotify などの音楽アプリケーションのシャッフル機能
- Google マップなどの GPS ナビゲーション
- SMS メッセージのオートコレクト機能 Siri や Alexa などのスマートアシスタント
強力な AI (人工知能) は、問題解決、批判的思考、学習など、人間の認知思考能力を完全に備えています。AGI は、情報を学習してそれを新しいシナリオに適用できるとともに、環境の変化にも適応できます。これは現在は存在しませんが、「スター・ウォーズ」や「スタートレック」の奇抜だったり有能だったりするアンドロイドから、「2001 年宇宙の旅」や「ターミネーター」シリーズに描かれた邪悪な AGI まで、人間は長い間その姿を想像してきました。
弱い AI は現在のところ特定のタスクしか実行できませんが、それぞれのタスクの実行には人間以上の能力を発揮します。通常、AI を使用すると人的ミスが減り、効率が向上します。強い AI も同様のメリットをもたらすと思われます。人的ミスを排除して、非常に高速でタスクを実行できるでしょう。
この 2 つの主な違いは、強力な AI は人間のように学習し考える能力を持つようになるということです。弱い AI は、プログラミングで指示されたとおりにしか機能できません。それが独自のアイデアを生み出し、自律的に改善できるようになると、強い AI に変わります。
AGI の実現はまだ先の話かもしれませんが、研究者たちはそこで立ち止まることなく、さらに先にある次の大きなマイルストーンを見据えています。科学者たちの予測では、真の汎用人工知能を開発した後の次のステップは、人工超知能の実現になります。強い AI と同じように、それは人間の認知機能に可能なあらゆることができます。ただし、超知能は完全な自己認識型で、人間の知性を上回るでしょう。人間を超える能力を発揮できるのです。今のところ、超知能は AGI と同じように仮想的存在です。
現在の AI が AGI になるには、次のような特定のスキルを習得する必要があります。
AGI は、空間特性を見て判断する能力を発揮する必要があります。現在、AI は色を完全には識別できません。たとえば、停止標識にステッカーが貼られていると、多くの場合 AI は標識が赤色かどうかを判断できません。人間や AGI は、色が混在していても戸惑うことなく、対象を停止標識として識別することができます。また、AI は静的な画像から 3 次元情報を抽出することもできません。AGI はたとえ画像が 2 次元であっても、それを見て球体物であることを理解できます。
人間は音が来る方向を認識して背後の会話を理解することもできます。AI にはそうしたことは不可能ですが、AGI は空間的な距離を判断し、大声の会話の背後で交わされている小声の会話を拾い上げることができます。
人間の手は苦もなく様々なタスクをこなすことができます。真の AGI になるためには、同じような微細運動能力を備える必要があります。それによって AGI がパズルを解いたりを物体を操作したりできるようになります。
幼い子供が複数の文を読み、理解する能力でさえ、現在の AI の能力を超えています。AGI が実現するには、あらゆるタイプのコミュニケーションを読み取ったり、見たりして、それを理解できることが必要です。そこには、言語自体に加えてその背後にある意味も理解することが含まれます。このスキルは、AGI がより高度なタスクを実行するために知っておく必要があるあらゆることを学習する上で不可欠な基盤となります。
AGI が実現するには、問題を特定して解決できる必要があります。現在、プロンプトなしで問題を効果的に解決するために必要な常識的スキルを備えた既知のシステムはありません。将来の AGI は、問題を診断して対処できるようになるかもしれません。
3 次元空間をナビゲートして投影できる AI モデルが存在します。でも、真の AGI は一切人間の介入なしにそうしたことが可能です。現在、AI モデルはそれらの多くを実行できますが、人間のガイダンスがなければ不可能です。AGI では、環境地図作成と自己位置推定の単独での同時実行が可能になります。
現在存在する AI は、真の意味で何かを生み出すことはできません。プロンプトに従い単語をつなげることはできますが、独特なものを作ることは不可能です。AGI は真の創造ができるようになるでしょう。実際、専門家は、AGI が優れた能力を発揮し続けるには、自分自身のコードを書き直し、斬新な改善点を見つけられるようになる必要があると予測しています。
理想は、AGI が人間がやりとりしたいと思うものになることです。それが実現するには、AGI はボディランゲージや顔の表情から人間の感情を認識し、そこからやり取りの方法を決定できるようになる必要があります。AI は顔をスキャンすることで感情を特定できるようになり始めていますが、それは非常に限定的で、不正確なこともよくあります。結局のところ、人間でも感情を理解するのに苦労することがあります。
AGI が感情を理解できるようになると、自然に感じられる方法で人間とやり取りすることが可能になります。Siri や Alexa などのパーソナルアシスタントが生成する応答とは異なったものになるでしょう。独特の会話ができ、周囲の人々の感情に基づいて何を言うべきかを決定できるようになるのです。
研究者は人工知能の分野を拡大し、AGI を生み出すための取り組みを続けています。汎用人工知能の実現へのアプローチ方法をいくつか紹介します。
一部の人々は、表象的思考を理解して使えることが人間の知性の核心だと考えています。そうした研究者たちは、そのような思考法をテクノロジーに教える方法を開発しようとしています。彼らは、それを達成できれば、AGI が実現する可能性があると考えています。
この研究分野では、人間の脳が、電気信号を発するニューロンの複雑な編み目構造をしていることに焦点を当てています。そのようなシステムを再現することで AGI を作りだそうとする試みがなされています。
人間の知性は、さまざまな要素が連携して、それらの要素の総和より大きなものを生み出すハイブリッドシステムだと考える人々もいます。研究者たちは、さまざまな方法でこれを模倣して人間のような知性を生み出そうとしています。
これらの研究者たちは、汎用知能の理論を数学的に解ければ、それを創り出すことができると考えています。彼らは純粋に理論的なモデルに取り組み、それを現実世界に移植したいと考えています。
一部の科学者は、人間の知性の創造は、物理的な身体も存在する場合にのみ可能であると考えています。彼らは、AI と人体の物理的表現の統合に取り組み、AGI を実現するためのブレークスルーを見つけようとしています。
AGI は多くの研究者にとって遠い目標です。しかし、特定の技術力を高めることで、AGI の研究を推進できることは認識されています。継続的な改善が進んでいる主な分野をいくつか紹介します。
深層学習は、ニューラルネットワークをトレーニングしてデータ間の複雑な関係を理解できるようにするという AI 分野です。研究者は複雑なネットワークを構築し、AI をトレーニングしてテキスト、音声、画像、動画、その他の情報タイプを理解できるようにします。
生成 AI は、深層学習のサブセットで、AI が学習したナレッジからコンテンツを生成できるというものです。これらのモデルは、大量のデータを使用してトレーニングされ、人間の創造物に似たコンテンツを作成する方法を学習します。
自然言語処理 (NLP) は、AI モデルが人間の言語を理解し、生成できるようにするという分野です。チャットボットのような AI ツールはこの仕組みで機能します。
コンピュータービジョンは、視覚データから空間情報を抽出、分析、理解する AI の機能です。この開発を進めることで、障害物に気づき、車両を回避させることができる自動運転車を実現しようとしています。
この分野では、物理的なタスクを実行できる機構を創り出すための取り組みがなされています。そうしたものが実現することで、AGI がより物理的な実体を持ち、より多くのサービスやタスクを実行できるようになるでしょう。
AGI はまだ存在しておらず、現在のところいくつかのハードルによってこの研究分野が非常に困難なものになっています。
現在、多くの AI システムは相互に通信を行うことができません。研究者やモデルの間でのデータ共有不足につながる利益の相反が存在しています。このようなギャップは、AI の普遍性の拡大を妨げます。
人間の心の仕組みを理解することは、人間にとっても十分に困難です。知性があるとはどういうことなのかを完全に理解していなければ、人間のような能力を持つテクノロジーを構築することは困難です。それを実現するには、研究者はまず人間における知性の働きを理解する必要があります。
AI システムは、孤立したスタンドアロンの環境で機能します。現在、共有やコラボレーションを規制したり可能にしたりするためのプロトコルは導入されていません。このことは、AGI モデルが発達するために必要な、社会的な人間環境の複雑なネットワークとは整合していません。
究極のビジネス戦略は、AI の開発と活用に注いだリソースに関する投資利益率を達成することです。しかし、AI の利益の測定は困難です。その開発の多くは最終的な製品としてではなく、小さな部分やステージごとに行われるためです。これによって研究と戦略を整合させることが難しくなる場合があります。
AI と、そのビジネスオペレーションへの実装方法に関する計画やポリシーが組織に欠けていることがよくあります。また、経営陣が AI システムの仕組みを深く理解していることはほとんどなく、コストのかかる AI 専門家を雇用する必要もあります。そのため、実装の費用が膨らみ、複雑な AGI システムの開発の妨げとなります。
人間のように思考し行動できる AI システムについて議論すると、大きな恐怖心が生まれるものです。世界が AGI に乗っ取られたり、プライバシーの感覚がすっかり失われたりしてしまうのではないかと心配になります。これらの心配のほとんどは、理論的根拠ではなく感情に基づくものです。それでも、汎用人工知能システムの構築には一定の非常に現実的なリスクも伴います。そうした懸念には、次のようなものがあります。
不正な目的で AGI を利用する人々
バイアスが AGI のトレーニング方法に影響を与えることによるバイアスを含むモデルの生成
データと個人情報のセキュリティの欠如
この種のテクノロジーに対する適切な法的規制
AGI は人間に可能なあらゆることを実行できるように設計され、そのことが多くのメリットを生みます。
日常的なタスクの多くは単調であり、生産性向上の妨げになります。AGI は、そうしたタスクの多くを、人間よりもはるかに迅速に実行できます。これにより、誰もそれらの簡単なタスクを実行する必要がなくなります。たとえば、完全に機能する自動運転車で、人間が運転する必要がなくなります。代わりに、それらが人間が運んでくれるようになるのです。AGI は、棚に物品を補充したり、家事をこなしたりすることもできるかもしれません。
AGI は、休憩なしで長時間稼働しながら、高水準の出力を維持できるようになるでしょう。そのため、集中力を失ったり、気を散らしたり、疲れたりすることなくタスクを完了できます。これは、AGI が多くのタスクを自律的に実行できることで、人間のエージェントが不要になるかもしれないということを意味します。他の例では、長時間にわたる手術中に外科医を支援するなど、よりサポート的な役割を担うようになる可能性もあります。
仕事の中には人間にとって非常に危険なものもあり、強い AI は、そうした環境で人間が関与する必要性を減らす手段になるかもしれません。例えば、採掘は人体に有害な場合があり、水中溶接は非常に危険です。人間のように器用な AGI ロボットなら、そうした場所で人間の安全を損なうことなく、必要なあらゆる作業を行うことができるでしょう。
AGI ロボットが星間探査のソリューションになることを期待する声もあります。これらの機械は航行に必要なリソースが少なくて済むため、現在の技術よりもはるかに詳細な調査データを科学者に提供できる可能性があります。
弱い AI はすでに特定の状況で災害を検出して予防を支援することができるようになっています。強い AI は、その機能をさらに強化し、不確実な事象に直面した場合でも大きな支援を提供します。例えば、AGI モデルが災害を予測し、理想的な避難経路を示すことができるかもしれません。
AGI はいくつかの倫理的懸念を提起すると思われます。最も大きな懸念は、こうした強力な技術の規制でしょう。AGI の使用方法は誰が決めるのか?問題が発生した場合の責任者は誰か?これらは極めて重要な問いで、AGI を開発する際には答えを出す必要がありますが、それは非常に困難になる可能性があります。現在、AI や倫理的なポリシーの作成の責任者はいません。
もう 1 つの倫理的障害は、AGI 技術を適正にトレーニングする方法です。専門家は、強い AI のようなものを開発するには、膨大なデータでモデルをトレーニングする必要があるだろうと予測しています。これは、AGI に人間のバイアスが入り込む可能性を生みます。AGI が特定のデータのみでトレーニングされている場合、後の動作にそうしたバイアスがかかるかもしれません。
知性は測定できないため、誰かが AGI を開発したことを判定するのは困難です。研究者たちは、真の強い AI と見なせるかどうかを判定するための次のようなテストを提案してきました。
チューリングテストは、AI のテスト手法の元祖で、1950 年代に英国の研究者の Alan Turing 氏が開発しました。彼は、真の AGI は、機械であるということが露見せずに人間と会話できるものだと判断しました。機械が人間を巧みに模倣できると、人間は別の人間と会話していると信じるだろうということです。
テストには 3 者が参加し、1 人の人間の審査者が、残りの 2 者のうちどちらが人間でどちらが機械かを判断します。審査者が機械を特定できなければ、それは AGI であると見なされます。
Apple 社の共同創業者である Steve Wozniak 氏は、コーヒーを淹れる過程を機械が全て踏襲できれば、それは人間レベルの知能を備えている可能性が高いだろうと提唱しました。そうした機械は材料を探し、それらを見つけ、1 か所に集め、作業を遂行することができるだろうということです。
2012 年、Ben Goertzel という研究者は、機械が大学への入学を認められ、授業を受けて、人間と同じように十分な試験に合格して学位を取得することができれば、それは人間の知性を備えているだろうと提唱しました。中国の AI ロボットは入学試験の数学テスト 2 つに合格しましたが、残りのステップを完了した弱い AI はまだ存在しません。
Nils J. Nilsson 氏は、AI が人間と同レベルの仕事を遂行できれば、AGI レベルに達していることになると提唱しました。基本的に、AGI なら人間の労働者と同等に雇用可能であるということです。
AGI は未来のものかもしれませんが、研究者たちが現時点で達成している進歩も数多くあります。汎用 AI の最新動向をいくつかご紹介します。
OpenAI 社の ChatGPT によって、自然言語処理はここ数年で大幅に発達しました。GPT-4 は、100 兆個のパラメーターを扱って包括的な言語処理を実行することができます。これは、人間と的確にやり取りし、対応できる AI の開発に非常に現実的な可能性があることを示しています。
メタバースを拡大するという動きは、AGI 開発のためのスペースを創出するという可能性を秘めています。AI はメタバースを構築するのに役立ち、チャットボットはユーザーが仮想世界で快適さを感じられるよう支援できます。
自動化は、ほとんどの組織や業界ですでに現実のものとなっています。ハイパーオートメーションは、組織における自動化の可能性を拡大することで、それを次のレベルに引き上げています。これは、AI が重要な役割を果たしてきた分野です。
専門家は、AI がもたらす可能性のあるバイアスに注目する人々が増加するだろうと予測しています。その結果、AI の使用やトレーニングの規制や管理を行う人材が増えるでしょう。AI 担当役員や AI コンプライアンス最高責任者となる専門家を雇用する組織が増えると予想されます。
ローコードやノーコードのシステムは、コーディングの知識がない人でも使用したり試したりできる分かりやすいインターフェイスを提供します。こうした進展により、AI に取り組むことができる人材が増加し、AGI の実現にブレークスルーが生まれる可能性が高まるでしょう。
人々は自分の仕事が AI に置き換えられることを恐れていますが、現在の傾向は、AI を職場に導入しても、AI が人間に依存している状態が保たれるというものになっています。人間と AI の連携方法においてこうした傾向がさらに定着し、AGI の基盤が築かれていくと期待されます。
チャットボットは、特定のタスクを実行できる仮想アシスタントです。たとえば、チャットボットは、ユーザーがカスタマーサービス担当者の支援を必要とせずにパスワードをリセットできるようにサポートすることが可能です。これらのエージェントは、組織における人間の従業員への依存と運用コストに替わるものになりました。AGI はこれをさらに拡大し続けるでしょう。
AI のバイアスや誤りに対する人々の意識が高まるにつれ、AI 倫理に関する議論も拡大しています。AI や AGI を巡る会話では、AI の使用における倫理が変わらず注目され続けるでしょう。
組織ではすでに AI を採用活動に取り入れ始めています。バイアスの問題もありますが、こうした取り組みによって HR チームの時間と組織のコストを大幅に節減することができます。この例としては、テクノロジーを使用して履歴書を分析し、面接する候補者集団を選択することなどがあります。
限定的な形態の AI が、すでに人々の生活様式や組織のオペレーション方法における重要な要素となりつつあります。それによって単調なタスクを処理したり、プロセスを迅速化したりすることができます。ServiceNow の Now Platform® に生成 AI、機械学習フレームワーク、自然言語理解、検索と自動化、アナリティクスとプロセスマイニングが含まれているのはそのためです。
このプラットフォームの AI は、生産性と効率性を高め、作業エクスペリエンスを向上させるように設計されています。ServiceNow の AI について詳細をご覧いただき、生成 AI でビジネスの次なる進化をもたらす方法をご確認ください。
量子コンピューティングはアルゴリズムを高速化し、AGI の実現に必要な大量のデータをモデルが消化できるようにします。量子コンピューティングで AI を増強する方法については、継続的な研究が行われています。