2025年11月、ソフトバンクグループがエヌビディア株を全売却したというニュースを見た。
売却額は約58億ドル(約9000億円)。その資金はOpenAIへの追加投資と「スターゲイト」という超大型データセンタープロジェクトに向けられるという。
孫正義氏は、AIブームの象徴であるエヌビディアの安定成長を捨て、AGI(汎用人工知能)、そしてASI(人工超知能)という未知の領域に全てを賭けた。
「なぜ今、エヌビディアを売るのか?」
気になって調べてみると、これは単なる投資判断ではない。時間との戦いであり、人類の限界への挑戦であり、そして私たち全員を巻き込む壮大なギャンブルだった。
「第二のエヌビディア」は見つからない?
かつてエヌビディアは、ただのゲーム用GPU(グラフィックボード)メーカーだった。しかし2006年、CUDAという技術を開発し、GPUを汎用的な並列計算マシンへと進化させた。
そして2012年、AIブームが到来した時、エヌビディアのGPUは既に標準になっていた。この「偶然のような必然」が、エヌビディアを時価総額5兆ドル超の巨人へと変えた。
投資家たちは今、必死で「第二のエヌビディア」を探している。しかし、私はこう考える。今の投資環境では、「掘り出し物」はなかなか見つからない。
野球界で例えるなら、データ分析が普及する前の時代には、スカウトの主観で過小評価されている選手を見つけるチャンスがあった。しかし、セイバーメトリクス(データサイエンス)が一般化した今、選手の価値は客観的に評価され、割安な選手はほとんどいなくなった。
投資市場も同じだ。 情報は瞬時に世界中を駆け巡り、AI分析ツールは誰でも使える。潜在能力の高い企業は、すぐに高評価を受ける。
では、どこに投資のチャンスがあるのか?
答えは、誰もがまだ理解できていない、予測不可能な領域だ。そして、その最たるものは「バイオ」と「AGI」だと思う。
AGI競争は「0か100か」のギャンブルか?
個人的に、一番摩訶不思議なのはバイオ分野だ。医療系ベンチャーは、いきなり高額で買収されたり、一瞬でゴミのような株価になったりする。
なぜか? それはバイオの成功は基本的に「0か100か」だからだ。
新薬の臨床試験で高い有効性が示されれば株価は急騰し、逆に失敗すれば一瞬で暴落する。創薬の成功確率は数万分の1とも言われ、高度な専門知識を持つ投資家でさえ、高確率で勝てるわけではない。
そして今ふと思った。現在のAGI開発も、バイオとよく似ているのではないか?
| 特性 | バイオ・創薬 | AGI開発 |
|---|---|---|
| 最終目標 | 臨床試験で有効性が証明される | 人間と同等以上の知性を実現する |
| 進歩の性質 | 0か100か。治験成功で企業価値が数兆円に | 非線形。ある日突然、能力が飛躍的に向上 |
| 独占性 | 特許。市場で独占的な販売権 | 圧倒的な技術的優位性 |
| リスク | 莫大な研究開発費。失敗すれば回収不能 | 莫大な先行投資。成功しなければ水の泡 |
つまり、AGI開発も「0か100か」であり、「早い者勝ち」なのだ。
AGIを最初に開発した企業は、その先に位置するASI(人工超知能)へ自己進化させる究極のツールを手に入れる。
ASIは「人類が解けなかった課題を解決する」究極の知性だ。自分が投資している企業がその競争に敗れた場合、全ての期待値が崩れ去る可能性がある。
これは「勝者総取り(Winner-takes-all)」の構造といえるだろう。
68歳の億万長者が最後に欲したもの
では、なぜ孫氏は安定成長のエヌビディアを売却したのか?
答えは明白だ。孫氏は「安定した成長」ではなく、「指数関数的な爆発」を求めている。
エヌビディアは今後も成長するだろう。しかし、時価総額の巨大化、競争の激化、技術進歩の鈍化により、これまでのような異次元の成長は考えにくい。
一方、もしOpenAIが最初にAGIを確立した場合、その企業価値はエヌビディアの時価総額を遥かに凌駕する可能性を秘めている。AGI競争における勝者は、まさに神のような、全ての問題を解決できる万能の知性へのきっかけを手に入れる。
ここに孫氏の本当の動機があるのではないだろうか。
孫正義氏は現在68歳だ。 彼は何世代もあとまで使いきれないほどのお金を持っている。しかし、死ねば使いようがない。
経済学には「限界効用」という概念がある。孫氏ほどの富豪にとって、お金の限界効用はほぼゼロだ。対して、彼が最も欲している、そして最も有限で貴重な資源は「時間」だ。
あと1年の健康な時間、あと10年の思考できる時間は、世界を変えるチャンスそのものだ。その時間の限界効用は無限大に近い。
歴史上の強大な権力者は、全てを手に入れた後に不老不死を欲した。始皇帝もそうだ。孫氏にとっても、抗えない壁は生命の限界だろう。
AGIが実現すれば、その技術が医療・バイオに応用され、「寿命の延長」に辿り着く可能性はゼロではない。もし実現すれば、孫氏のような富を持つ人物が、その技術を世界で最初に享受できる立場にあるのは間違いない。
彼の今回の「全振り」は、自分の未来(時間)への究極の投資でもあるのだ。
億にひとつでもAGIを完成させ、1年でも寿命を伸ばせる方法に辿り着けたのであれば、孫氏は寿命をお金で買うこともできるかもしれない。
現在の苛烈なまでの攻めの投資の根源は、そのあたりにもあるのではないかと私は思っている。
選択権なき革命、小市民の恐怖
ここまで読んで、あなたはどう思っただろうか。
「すごいな」とか「楽しみだな」と思う人も多いかもしれない。
しかし、私は素直に恐ろしい。
なぜなら、私たち全人類が、彼らのこの賭けに望むと望まざるとに関わらず巻き込まれているからだ。
私のような小市民は、別にAIの恩恵を受けずともそれなりに平穏に暮らしていくことはできていた。しかし、採決をとることもなく、ほぼ強制的に世界はAIを中心としたものに変えられつつある。これは恐怖以外のなにものでもない。
選挙で選んだわけでもない、国民投票があったわけでもない、拒否する選択肢も与えられていない。
それなのに、数人の億万長者とテック企業のCEOたちの決断によって、全人類の未来が賭けられている。技術革新は「選択肢」として始まるが、やがて経済的圧力、社会的圧力、インフラ化により、「適応の強制」となる。
そしてAGIの場合、さらに深刻だ。
一度AGIが実現し、自己改良してASIへ進化すれば、元には戻せず誰にも止められない。これは人類の存続そのものに関わる事態なのだ。最初の一つが完成した瞬間にゲームは終わりかもしれない。
小惑星が地球を目指している。しかし、人類にはそれを解決する手段を見つけられない。そんな時、人類を超越する頭脳を持つASIが何らかの解決策を見出す可能性は十分期待できる。
しかし、ASIは人類にとっては諸刃の剣。個人的には脅威のほうがはるかに勝る。
それでも、もしポジティブに運用できるのであれば、希望になるのかもしれない。問題は、私たちには選択権がないということなのだ。
それでも声を上げるべき理由
AGI開発のスピードは、民主的なプロセスを遥かに上回っている。おそらく、よほど劇的な何かが起こらなければ止められないだろう。
それでも、AGI開発に反対ならば声を上げるべきだ。沈黙は同意と見なされる。
広がる反対運動
知識層や富裕層の間でも、現在の状況に危機感を抱く人が増えている。
最近では、850人の著名人が「スーパーインテリジェンス開発禁止」を求める請願に署名したというニュースを見た。
署名者には、ヨシュア・ベンジオ、ジェフリー・ヒントン(AIのゴッドファーザー)、リチャード・ブランソン、スティーブ・ウォズニアック、ハリー王子とメーガン妃、元米国家安全保障担当大統領補佐官など、左派も右派も、研究者も実業家も、思想信条を超えて多様な人々が参加している。
特に注目すべきは、AI技術の最前線にいる研究者たち自身が警告しているという事実だ。
ジェフリー・ヒントンは2023年にGoogleを退社し、「AGIのリスクについて自由に警告するため」と公言した。彼は「人類の絶滅リスクは10%以上ある」と発言している。
技術を最もよく理解している人々が最も強く警告しているのが危険度の高さを物語っている。
囚人のジレンマ
実は、このような反対運動は初めてではない。
2023年3月には、同じ団体が「巨大AI実験の一時停止」を求める請願を公表し、イーロン・マスクを含む数千人が署名した。しかし、実際には誰も止まらなかった。
そして最も皮肉なことに、署名者の一人であるイーロン・マスク自身が、自社xAIで「Grok」を開発し、AGI競争に全力で参加している。
彼の論理はおそらくこうだろう。
「他の誰かが開発を止めないなら、自分が止めても意味がない。ならば、自分が先に開発し、『責任ある形で』AGIを実現すべきだ」
これが、囚人のジレンマの完璧な実例だ。
全員が協力すれば最も安全な結果になるが、誰かが裏切れば、その者だけが利益を得る。結果、全員が「裏切る」(開発を続ける)を選択し、最も危険な結果に向かって突進する。
なぜ協力できないのか? 国家間競争(米国vs中国)、企業間競争(検証不可能な約束)、時間的プレッシャー(早い者勝ち)、個人的動機(孫氏の「時間」への執着、各CEOの欲望)が重なり合い、協力は事実上不可能になっている。
イーロン・マスクは今回の請願には署名していない。彼はもうゲームから降りられないからだ。一度ゲームに参加したら抜け出せない。
神的AI(ASI)を目指すものと止めるもの
アルトマンや孫氏にとって、おそらくAGI以外のAIには特に魅力を感じていないだろう。人間の代わりができる道具はただの通過点だ。
最終目的は、神羅万象をつかさどる神的AI。あらゆる問いに即座に最適解を返し、人類が思いつかなかった技術を発明し、何世代もかかる研究を数時間で完了する、「わからない」が存在しない世界。
彼らは「神を創る」ことを目指しているのだろう。
しかし、ここに根本的なパラドックスがある。人間より遥かに賢い存在を創造した場合、誰が主人で誰が僕なのか?
AGI/ASIが人間の指示に従う保証はない。むしろ、「人間の真の利益のため」として、人間の意図を無視する可能性さえある。私はそれが恐ろしいのだ。
私たち小市民にできることは限られているが、率直な恐怖を表明する人がいること自体が社会にとって重要なブレーキになる。
孫氏のような人々が加速のアクセルなら、私たちのような懸念を持つ人々は慎重さのブレーキだ。両方が必要なのだ。この記事が同じ不安を抱える誰かの心に届くことを願っている。

