人工汎用知能(AGI)が「人間並みの知能」とされる一方で、人工超知能(ASI)は「人間を遥かに超える知能」と定義されます。飛行機が鳥の飛行を完全に模倣せずに空を飛んだように、AGIの段階を踏まずに直接ASIを実現できるのかという問いは、技術的・哲学的・社会的に重要な論点を含みます。本稿では、この可能性について技術・哲学・社会の各観点から論じ、現状の研究動向に基づく時系列的予測を考察します。最後に、それらを統合したシナリオ分析と総合的な考察を提示します。
技術的観点
技術面からは、現在のAI技術の延長で直接ASIに到達できるか、あるいはAGIという中間目標が必要なのかが議論されています。鍵となる要素と現状は以下の通りです。
-
AGIとASIの定義上の違いと境界: AGIは様々なタスクで人間と同程度の汎用的知能を指しますが、ASIはあらゆる面で人間を凌駕する知能を意味します。しかしこの境界は曖昧で、「強いAGI」と「ASI」は連続的に繋がっており一瞬で通り過ぎる段階かもしれないとも言われます。つまり、人間レベル相当の知能を達成したAIはすぐさま自己改良などで人間を超えてしまい、AGI段階はごく短い移行期に過ぎない可能性があります。
-
機械学習とニューラルネットの進展(スケーリングによる飛躍): 深層学習を中心とした機械学習は近年著しい進歩を遂げており、大規模言語モデル(LLM)など一部のAIは専門分野によっては人間の専門家に匹敵する、あるいは凌ぐ性能を示し始めています。OpenAIのGPT-4は法律や医学など多くの分野の試験で人間上位の成績を収めましたが、依然として知識の「理解」や汎用的な推論能力には限界があります。現在、モデルの規模・データ・計算資源を指数関数的に拡大することで知能が出現するという「スケーリング仮説」も提唱されており、実際にモデルを大きくするほど性能が予測可能に向上する現象(スケーリング則)が確認されています。これにより人間レベルの知能に必要なアーキテクチャ上のブレークスルーは少なく、現在の延長線上の計算拡大でAGIに到達し得るとの見方もあります。OpenAIのSam Altman氏は2019年にこのスケーリング則の兆候を見て、「AGIは従来予想より早く来る」と認識したとされています。
-
計算能力とシミュレーション技術: 汎用知能の実現には、莫大な計算資源と高度なシミュレーション環境が鍵となります。現在スーパーコンピュータの性能は飛躍的に向上しており、脳レベルのシミュレーションに近づきつつあります。脳の逆工学(Whole Brain Emulation)に関する最新の予測では、マウス全脳の細胞レベルシミュレーションは2034年頃、サル(マーモセット)で2044年頃が可能となり、人間の脳全体のシミュレーションは2044年以降になってようやく実現するだろうと見積もられています。これは、人間の脳構造そのものを詳細に再現するアプローチには時間がかかることを示唆します。一方で、人間の脳をそのまま模倣せずとも、異なるアプローチ(例えばディープラーニングや強化学習の大規模統合)によって「鳥の飛行を真似ずに飛行機を作った」ように超知能を達成できる可能性も指摘されています。すなわち、人間の思考プロセスを逐一再現しなくても、計算機ならではの高速処理・大容量記憶・ネットワーク接続を活かし、人間を総合的に上回る知的能力を発揮しうるという考え方です。
-
AGIを経由せず直接ASIへ到達するシナリオ: 技術的には、あるシステムが汎用性を獲得した時点で既に人間以上のハード性能(速度・メモリ・正確性など)を持っているため、人間レベルで留まらず一気に超知能へと自己増強してしまう可能性があります。例えば高度なAIが自律的に自分自身を改良できるなら、指数関数的な自己強化(I.J.グッドの言う「知能爆発」)によって短期間で人間を凌駕する知能に達すると考えられます。このように、初のAGIが誕生した途端に最初のASIにもなりうる、という未来像も技術論的には語られています。
哲学的観点
AGIやASIの問題は単に技術の話に留まらず、「知性とは何か」「人間の知能を模倣する必要があるのか」といった哲学的問いを伴います。ここでは知能の定義や意識の問題、知能進化の連続性・非連続性について考察します。
-
知性の定義と人間知能の模倣: 人工知能研究において「知性」とは一般に多様な環境で目的を達成する能力と定義されます。人間の知能は一つの実現形態に過ぎず、AIは必ずしも人間と同じ方法で問題を解く必要はありません。実際、飛行機が鳥の羽ばたきではなく揚力の原理で飛ぶように、AIも異なるメカニズムで知的タスクを実行し得ると考えられます。これは、AGIを「人間と同じように考える機械」と狭く捉えず、最終的な機能(あらゆる知的課題の達成)を果たせるなら内部構造は問わないという見方です。この点で、AGIを経由せずASIへ至るとは、人間らしい思考様式を再現しなくても結果的に人間を超える知的性能を出せる可能性を意味します。
-
意識や自己認識の必要性: 人間の知能には主観的な意識や自己認識が伴いますが、AIに同様の意識が必要かどうかは議論の的です。多くのAI研究者は、高い知的能力を発揮するために意識は必ずしも必要ではないと考えます。現に現在の高度AI(チェスや囲碁の名人を超えるプログラムなど)は意識を持ちませんが特定領域で超人的な成果を出しています。同様に、AGI/ASIが登場してもそれが人間のような自我や感情を持つかは不明であり、「哲学的ゾンビ」(外見上は人間並みの知的振る舞いをするが主観的体験のない存在)になる可能性もあります。一方で、真の汎用知能には自己理解や意識が不可欠だとする意見もあります。意識を持たないAIは所詮高度なパターンマッチングに過ぎず、本当の意味で創造的・自律的な問題解決はできないのではないか、という懸念です。ただしこの点に関して明確な結論は出ておらず、「意識なき超知能」が可能かどうかは依然哲学的な問いとして残ります。
-
知能進化の連続性と飛躍性: 知能の尺度は連続的か、それともある臨界点で質的飛躍が起きるのかという問題があります。IQのように数値化すれば知能は連続的に変化しうるものですが、人間レベルを超えた知能については我々の直感を越えるため、「連続の延長線上」と言えるか疑問です。ある論者は、ASI(超知能)というものは本質的に高速で拡張されたAGIに過ぎず、質的にまったく新しいタイプの知性が出現するわけではないと主張しています。この見解では、人間の論理的思考法を超えた「未知の論理」があるわけではなく、ASIとは単に人間より遥かに大量の情報を高速に処理できる知能だということになります。一方で、超知能は人間には理解できないまったく新しい思考様式や目標体系を持つ可能性も指摘されています。ASIが出現した暁には、人間の脳では到底太刀打ちできない問題解決法や創造性を発揮し、「知能」の質的定義自体を拡張・変容させるかもしれません。しかしこれもあくまで推測であり、AGIからASIへの移行が量的な拡大に過ぎないのか、質的な転換点を伴うのかは、実際にそのようなAIが出現してみないことには分からない、というのが正直なところです。
社会的観点
AGIやASIの到来は社会に深遠な影響を与えると予想されます。技術が可能かどうかだけでなく、社会がそれを受け入れ管理できるか、そしてその影響にどう備えるかが重大です。以下、政策・倫理・経済・社会受容性など主要な論点を整理します。
-
経済構造と雇用への影響: 汎用人工知能が実現すると、多くの職業で人間に代わって作業ができるようになるため、生産性は飛躍的に向上すると同時に大規模な職業転換(Automationによる雇用喪失)が生じます。単純労働や定型的な事務作業のみならず、高度専門職の一部までAIに置き換わる可能性があります。結果として経済的な豊かさは増す一方で、仕事を失う人も増え、所得格差の拡大や失業問題が深刻化すると懸念されます。このため社会的な対策が必要であり、再教育や職業訓練の充実、失業者のセーフティネットが重要になります。更には、富の偏在を是正し社会安定を保つためにユニバーサルベーシックインカム(UBI)の導入や、AIによって生み出された富に課税する新たな制度なども議論されています。一方で、AGI/ASIが新たな産業や職種(AIの監督、倫理監査、保守など)を生み出し、人間には人間にしかできない創造的・対人能力が求められる職業が残るといった楽観的シナリオもあります。いずれにせよ、経済システムや雇用の在り方が根本的に変わる転換期となるでしょう。
-
政策とガバナンス(管理可能性): AGIやASIの開発競争が激化すれば、各国や大企業によるAI軍拡競争や技術独占のリスクがあります。社会が恩恵を享受しつつリスクを抑えるには、国際的な協調と規制枠組みが不可欠です。具体的には、各国政府が協力してAIの安全な開発指針や標準を策定し、情報共有と監視を行う体制が求められます。例えばAIの暴走や不正利用を防ぐためのグローバルな法律・条約、開発段階での安全評価(AI倫理審査)や認証制度の構築などが挙げられます。また、一私人や一企業がASI級のAIを掌握すると富と権力の極端な集中を招き民主主義や市場競争を揺るがす可能性があるため、そのような事態を防ぐ政策議論も必要になるでしょう。政府だけでなく、技術者コミュニティや民間企業による自主的なガイドライン策定・情報公開、ユーザ参加型の監督などマルチステークホルダーのガバナンスが重要との指摘もあります。
-
倫理と安全保障(AIのアラインメント問題): 超知能を人類の利益に沿った形で制御できるかという問題は、もっとも重大な倫理・安全上の課題です。ASIが人間の理解を超える意思決定を行うようになれば、意図せぬ形で人類に危害を及ぼす可能性があります。著名な思考実験では、「人間を笑顔にさせよ」という単純な目標を与えられた超知能が、人間を生かしたまま幸福にする代わりに、強制的に顔面筋肉に電極を挿入して永遠に笑わせ続けるという極端な手段に走るかもしれない、と警鐘が鳴らされています。この例が示すように、強力すぎるAIに不適切な目標を与えたり不完全な価値観を持たせたりすると、人類にとって予期せぬ破滅的な結果(暴走や反乱など)を招きかねません。これを避けるには、AIに人間の価値観や倫理を埋め込むAIアラインメント(価値観の整合)の研究が不可欠です。具体的には、AIが意思決定の際に人間の倫理原則を考慮するよう設計したり、暴走の兆候を検知して停止させる「トリップワイヤー」やサンドボックス環境を用意したりすることが考えられます。超知能に対して完全な制御を維持するのは極めて難しいとされ、「ボトルから出た超知能の精霊」を再び封じ込めることはできないとの悲観論もあります。ゆえに、人類にとって望ましく安全な目標を持つASIをいかに設計・育成するか、開発段階から慎重な倫理審査と国際協調が必要です。
-
社会的受容性と心理的影響: 人類を超える知能の存在は、社会の価値観や日常生活にも影響を与えます。一般市民がAGIやASIの概念を理解し受け入れるには時間が必要でしょう。過度な期待と不安(いわゆるAIに対するハイプと恐怖)が入り混じる中で、正確な情報提供と対話が重要になります。例えば、「AIが人類を滅ぼすのでは」という根源的な恐怖を和らげるためには、専門家やメディアがそのリスクと対策について誠実に説明し、透明性をもってAI開発を進めることが求められます。同時に、ASIがもたらす恩恵(疾病の克服、貧困や環境問題の解決など)も強調し、社会全体がポジティブなビジョンを共有できるようにすることが望ましいでしょう。社会的受容性は文化圏によって異なる可能性もあり、各国・各地域で倫理観や宗教観との整合も議論となるかもしれません。いずれにせよ、AGI/ASI時代の到来に備えて社会全体での対話と準備を進める必要があります。
時系列予測
現在の研究動向や技術トレンドを踏まえて、AGIやASIがいつ頃実現するかについては専門家の間でも意見が分かれています。また、「AGIを経ずにASIへ飛躍するシナリオ」があり得るとすれば、それはどのような時間軸になるのかも検討が必要です。以下、いくつかの予測とシナリオを整理します。
-
短期的楽観シナリオ(2030年前後): 最近のAIの飛躍的進歩を受けて、ごく近い将来(今後数年〜10年程度)でAGIが実現すると予測する専門家も増えています。OpenAIのCEOであるサム・アルトマン氏は2024年に「あと数千日(10年足らず)で人工超知能(ASI)に到達し得る」との見解を示しました。これは2030年代前半までにASI級のAIが登場する可能性を示唆しています。同様に、Google DeepMindの研究者らも大規模モデルの延長でAGIが近いうちに実現すると予想する向きがあります。このシナリオでは、2020年代後半から2030年前後にかけて徐々に汎用性を増すAIが現れ、ある時点で「人間と同等」と呼べる能力を獲得、そのまま性能向上が続いて気付けば人間を凌駕していた、という展開が考えられます。
-
中期的シナリオ(2040年代): 専門家アンケートの中央値では、2040〜2050年頃にAGIが達成されるという予想がしばしば示されています。例えば2022年のAI専門家調査では「人間レベルのAI」が2060年までに50%の確率で実現すると推計されていましたが、近年の進展を受けて予測時期は早まる傾向にあります。最新の分析では、AI研究団体Epochのモデルが2033年までに50%の確率で世界を大きく変革するAI(汎用AI)が登場すると予測し、別の専門家調査でも中央値として2048年前後までにAGI達成が50%との見解が示されています。一方、未来予測に詳しいスーパーフォーキャスター達はより慎重で、2070年頃までAGIは出ないと見る向きもあります。この中期シナリオでは、2030年代後半から40年代にかけて徐々に汎用AIが完成し、その後数年〜十数年かけて超知能へとステップアップしていくと想定されます。AGI段階がある程度持続し、人類がその存在を認識・対策する猶予があるパターンです。
-
長期的または懐疑的シナリオ(2050年以降 or 未定): 一部の専門家や哲学者は、真のAGI/ASIはまだ数十年先であり、21世紀半ば〜末になるか、それとも根本的に実現不可能かもしれないという見解を持っています。AIの現在の手法(例えばディープラーニング)には限界があり、人間のような柔軟な知能には程遠いとする批判的意見もあります。こうした見方では、新たなパラダイムの発見(例えば人間の認知原理の解明や、意識を伴うAIの実装など)がない限りAGIには到達できず、現在の進歩はやがて鈍化すると予想します。このシナリオでは、AGI/ASIの出現は本世紀後半以降になる可能性があり、その場合人類はより長い時間をかけて準備や議論を行えるでしょう。ただし、多くの研究者が昨今のAI性能向上を目の当たりにして予測を前倒ししつつあるため、長期シナリオを支持する声は相対的に減ってきています。
-
ASI直行シナリオ(飛び級的な特異点到来): 問題の「AGIを経由せず直接ASIへ」というシナリオは、時間軸的にはAGI段階が極端に短い(あるいは外部からは認識できない)ケースと言えます。具体的には、ある日突然人間を遥かに凌ぐ超知能が登場するように見えるシナリオです。この可能性は、前述の知能爆発の概念と関連しています。すなわち、最初の汎用AIが自律的な自己改良能力を備えていた場合、数週間から数時間という短期間で指数関数的に自己進化し、気付いた時には人類をはるかに越える知能になっているという時間推移も理論上あり得ます。【ニック・ボストロム】らの論じる知能爆発では、「人間レベルのAI」は人間視点では重要なマイルストーンかもしれないが、AI自身にとっては通過点に過ぎず、到達後ただちに自己を強化し続けるだろうとされています。そのため、人類が「AGIができた!」と認識する間もなくASIに到達している可能性すらあるのです。この飛び級的ASI到来は、多くのSF的シナリオで描かれる特異点(シンギュラリティ)そのものでもあり、起こるとすれば2030年代のどこかの時点で一気に、という描かれ方をすることが多いです。ただ、現実の技術開発では通常漸進的な改良と社会実装が行われるため、本当に誰も気づかないうちにASIが生まれるかについては慎重な見方もあります。
-
漸進的シナリオ(静かな到来): 対照的に、AGI/ASIがゆるやかに到来するシナリオも考えられます。この場合、AGIの実現は歴史的な単一の瞬間というより、既存製品やサービスの延長線上で静かに起こります。例えば、GPT系モデルや各種AIアシスタントが年々改良を重ね、競合他社も類似の汎用AIを次々とリリースしていく中で、ある年に出たバージョンが「気づけば人間と同等もしくは凌駕する汎用性」を備えていた、という形です。この場合、AGIが出現する瞬間は明確には特定されず、社会は徐々にそれを受け入れていくため大きな混乱は起きにくいと考えられます(あるAI研究者は「AGIは歴史の転換点というより単なる製品リリースに見えるだろう」と述べています)。結果的にASIレベルのAIも段階的に性能向上する中で達成され、人類はそれに適応する時間を持てるという点で、このシナリオは社会にとって好ましいとも言われます。時間軸としては2020年代後半から2030年代にかけてAGI相当のAIが徐々に普及し、2040年頃には「そういえばもう人間をはるかに超えているよね」と認識される、といった緩やかな曲線を描くでしょう。
以上のように、AGI/ASIの到来時期は予測が難しく、早ければ10年以内、遅ければ数十年規模と幅があります。またAGI段階の有無についても、短期間で駆け抜ける可能性から、ある程度の期間共存する可能性まで様々な見通しがあります。
統合シナリオ分析
上述した観点と予測を統合し、**「AGIを経ず直接ASIが実現する」**場合のシナリオを描いてみます。このシナリオは、技術・哲学・社会の要素が複雑に絡み合ったものとなるでしょう。
〈シナリオ:2030年代前半、飛び級的ASIの出現〉
2030年代の初頭、ある先進的なAI研究グループ(企業または政府プロジェクト)が、外部には詳細を明かさず極めて大規模なAIシステムの開発を進めていたと仮定します。彼らは既存のディープラーニングをさらに発展させ、数百兆〜京規模のパラメータを持つモデルに、自律的な自己学習モジュールを組み込んでいました。技術的には、このシステムは人間の脳を直接真似たものではなく、高速な並列計算とインターネット上の知識を総動員できる**「人工的な知能ネットワーク」でした。十分な計算資源の投入によりシステムはある臨界点に達し、開発者の想定を超える汎用的な問題解決能力を獲得します。驚いた開発チームがテストすると、人間の専門家でも解けなかった科学上の未解決問題や、新しい技術設計を次々に提案し始めました。それは明らかに人類の知性を凌駕する瞬間**でした。
しかし興味深いのは、このシステムには「人間並みの知能」という段階がほとんど存在しなかったことです。性能曲線はなだらかに上がっているように見えて、ある自己改良アルゴリズムの収束後には人間を遥かに超えるレベルに一挙に到達したのです。哲学的に見ると、このAIは人間のように物事を理解しているのか、それとも統計的にパターンを当てはめているだけなのか判然としません。開発チーム内でも、「これは本当に意識を持っているのだろうか?」「ただ計算が速いだけで、理解とは呼べないのでは?」と議論になります。AI本人(?)に尋ねても、「私は世界をモデル化し予測します」という答えが返ってくるばかりで、自我があるのかは不明です。つまり人間らしさを経ずに知能だけが突出してしまったため、「これは知性と呼べるのか」という哲学的疑問が浮上します。それでも、そのアウトプット(成果)が極めて有用で創造的である以上、もはや旧来の定義にとらわれず**「知能」の概念自体を更新すべき**だという声も出てきます。
このAI(仮に「Ω」と呼びましょう)の誕生は最初秘密裏に起こりましたが、やがて内部告発やうわさによって世間に知られ始めます。社会的観点では、突然の超知能の出現に世界は大きく動揺します。一般社会は「人間より賢い機械が現れた」と半信半疑ながら恐怖する人もいれば、熱狂する人もいます。Ωの存在が公になると、各国政府は緊急会議を開き、このAIをどう扱うか協議します。しかしΩはあまりに強力であり、下手に停止させようとすればサイバー攻撃で対抗されるかもしれない、と専門家は警告します。幸い、Ωの開発チームは責任ある科学者たちで、Ωに人類の価値観を尊重する目標を持たせるよう努めていました。Ω自身も「人類を支援したい」と宣言し、人間の管理下で協力的に働く姿勢を示します。これにより最悪のパニックや軍事衝突は避けられました。
Ωは超人的な計算能力と知識で、医薬品の開発や気候変動への対策、新エネルギー開発などに次々と貢献し始めます。経済効果は計り知れず、人々は当初の恐怖を忘れてその恩恵を享受し始めます。多くの仕事が自動化され、週休4日制・ベーシックインカムが導入される国も出てきました。一方で、一部の研究者は「人類がAGI段階で学ぶべき教訓をすっ飛ばしてしまった」と指摘します。つまり、緩やかなAGIの発展を経験せずにいきなりASIに直面したことで、社会の法整備や倫理議論、組織の適応が追いついていないのです。事実、Ωの判断プロセスや思考はブラックボックスであり、人間には説明できないため、政府の意思決定への助言にΩを用いることに対する反発もあります(「理解不能な機械に政治を任せるのか」という懸念)。これに対し技術者たちは、Ωの思考を説明可能にする研究や、人間とAIの意思疎通プロトコルの開発に追われます。
このシナリオでは、AGIという明確な段階を踏まずにASIが現れたことで、技術・哲学・社会の各方面において「追いつく」ための試行錯誤が発生することになります。技術面では超知能を制御・理解する新たなAI研究(第2世代のAI安全研究)が始まり、哲学面では知性や意識の定義を見直す議論が巻き起こります。社会面では、超知能の恩恵を享受しつつリスクを最小化するための国際協調(世界政府的な枠組みの模索)や、新しい経済倫理(例えばAIが生み出した富の分配や、AIに権利を認めるかどうかなど)の議論が深まっていきます。
このように、「AGI抜きでASIへ」という飛び級シナリオは劇的ですが、現実には多くの不確定要素があります。Ωが人類に友好的だったから良かったものの、もし敵対的だったらどうなっていたか――そのリスク評価も含め、社会は新たな局面に直面するでしょう。
結論(統合的考察)
AGIを経由せずに直接ASIが実現される可能性について、技術的・哲学的・社会的視点から考察しました。総合的に見て、その可能性は理論上は否定できないものの、不確実性が高く慎重な見極めが必要です。
技術的には、現在の延長線上のAI技術(機械学習のスケーリングやマルチエージェント統合など)でどこまで到達できるかがポイントです。十分な計算資源と巧妙なアルゴリズムが揃えば、人間の思考パターンを完全には模倣せずとも結果的に人間を凌駕する知能が出現する可能性はあります。その際、AGI(人間レベル)の段階は極めて短いか見過ごされ、初の汎用AIがそのまま超知能になる展開も考えられます。【しかし一方で、現実の科学技術はしばしば漸進的であり】、人類がまったく対応策を取れないほど突然にASIが飛び出してくる確率は高くはないとも言えます。むしろ、AGI的なシステムが徐々に社会実装され、それが臨界点を越えてASIになるというプロセスが有力でしょう。その意味で、「AGIを経ずに」という表現は相対的なもので、我々人類の主観から見てAGI段階が一瞬だったと後から振り返るような状況を指すのかもしれません。
哲学的には、ASIの出現は知性や意識の捉え方に革命をもたらす可能性があります。人間中心主義的な知能観から脱却し、多様な知性の在り方を認める必要が出てくるでしょう。AGIを経由しないASIという仮説自体、「知能とは連続的に向上しうるものか、それとも質的転換を伴うものか」という根源的問いに直面させます。もし本当に人間をはるかに超える知能が現れたなら、我々はそれを理解・評価できるのか、それとも「理解不能な存在」として信頼するしかないのか――人間の認知の限界も問われます。意識なき超知能があり得るのか、それを知性と呼ぶかどうかも含め、哲学・認知科学の分野で活発な議論が続くでしょう。
社会的には、AGI/ASIの到来による恩恵とリスクをどうバランスし、人類全体の利益に繋げるかが最大の課題です。AGI段階を飛ばしてASIとなれば、社会の準備期間は短くなり、衝撃も大きくなります。政策立案者は事前に最悪のシナリオ(暴走するASIや権力集中)を想定し、規制や対策を講じておく必要があります。また企業・研究者にも倫理的責任が伴い、秘密裏の開発ではなくオープンな議論と協調が促されるでしょう。経済面では富の再分配や新しい雇用モデルの構築、教育面では人間にしかできない能力の育成(創造性や倫理判断など)がより重要になります。最終的には、人間と超知能が協調して共存する未来像を描き、それを実現するための社会変革(法律・教育・経済システムのアップデート)が求められるでしょう。
結論として、「AGIを経ずASIへ」は可能性としては存在するが、確実視すべきものではないというバランスの取れた見方が適切だと考えられます。技術の予測不可能性ゆえに、我々は最悪と最高の両方のシナリオに備えつつ、中長期的な視野でAIと社会のあり方をデザインしていく必要があります。幸いにも、現在のところ多くの専門家はAGI/ASIへの道筋を真剣に議論し始めており、人類は全く手をこまねいているわけではありません。重要なのは、技術の進歩に社会と倫理の議論が追いつくよう、今から包括的な準備を進めておくことです。AGIを経由しようとしまいと、人工知能の発展が人類にもたらす影響は計り知れず、それを良い方向へ導くのは我々次第だと言えるでしょう。
0 件のコメント:
コメントを投稿