Original Video Title: Vitalik Buterin vs Beff Jezos: AI Acceleration Debate (E/acc vs D/acc)
Original Video Source: a16z crypto
Original Article Translation: Deep Tide TechFlow
Should we push for rapid AI advancement as much as possible, or should we take a more cautious approach to its progress?
Currently, the debate surrounding AI development mainly focuses on two opposing views:
· e/acc (effective accelerationism): Advocates for rapidly advancing technological progress as acceleration is the only way forward for humanity.
· d/acc (defensive/decentralized acceleration): Supports acceleration but emphasizes the need to progress cautiously to avoid losing control over the technology.
In this episode of the a16z crypto show, Ethereum co-founder Vitalik Buterin and Extropic co-founder and CEO Guillaume Verdon (using the alias "Beff Jezos") gathered with a16z crypto's CTO Eddy Lazzarin and Eliza Labs' founder Shaw Walters to engage in a profound discussion around these two viewpoints. They explored the potential impact of these ideas on AI, blockchain technology, and the future of humanity.
During the show, they discussed the following key questions:
· Can we control the process of technological acceleration?
· What are the greatest risks posed by AI, from mass surveillance to extreme power concentration?
· Can open-source and decentralized technologies determine who benefits from the technology?
· Is slowing down the development of AI realistic or worth advocating for?
· How can humanity maintain its value and status in a world increasingly dominated by powerful systems?
· What might human society look like in the next 10 years, 100 years, or even 1000 years?
今回のエピソードの中心テーマは、技術の進化を加速させることが導かれるものなのか、それともすでに我々の手から離れてしまっているのか、という問題ですか?
「アクセラレーショニズム」の本質と歴史観について
・ Vitalik Buterin:「過去100年間で新しいことが起こりました。それは、我々が急速に変化する世界を理解しなければならないということです。時には急速で破壊的な変化が起こることさえあります。......第二次世界大戦は、私が『死神となり、世界の破壊者となった』と反省することを生み出し、過去の信念が崩壊したとき、我々は何を信じ続けることができるのかを理解しようとする人々を促しました。」
Guillaume Verdon:「E/acc は本質的に『メタ文化の処方箋』です。それ自体は文化ではなく、何を加速すべきかを示しています。加速の核心は物質の複雑化であり、これにより周囲の環境をよりよく予測することができます。」
・ Guillaume Verdon:「不安の対極には好奇心があります。未知を恐れるのではなく、未知を受け入れるべきです。......私たちは未来を楽観的な態度で描くべきであり、なぜなら私たちの信念が現実を形作るからです。」
エントロピー、熱力学、および「自己中心的ビット」について
・ Vitalik Buterin:「エントロピーは主観的であり、それは固定された物理的統計量ではなく、システムの未知情報に対する私たちの理解の程度を反映しています。......エントロピーが増加すると、実際には私たちの世界への無知が増加しています。......価値の源泉は私たち自身の選択にあります。なぜ生命に満ちた人間の世界が木星のような無数の粒子だけの世界よりも面白いと考えるのでしょうか?それは私たちが意味を与えているからです。」
・ Vitalik Buterin:「大規模な言語モデルを持っているとしましょう。そしてその中の重みのある値を勝手に90億などの膨大な数字に変えたとします。最悪の結果は、システムが完全に崩壊することです。......ある部分を選択せずに無差別に加速させた場合、最終的な結果はすべての価値を失うことになるかもしれません。」
・ Guillaume Verdon:「それぞれの情報は自らの存在のために『闘います』。永続するために、情報は自らの存在に関する消せない跡を宇宙に残さなければなりません。まるでより大きな『くぼみ』を宇宙に残すかのように。」
· Guillaume Verdon: 「これがなぜ、**カルダシェフ段階** が文明の発展水準を測る究極の指標とされるのかです。……この『利他的ビット原則』は、成長と加速を促進できるビットだけが、将来のシステムで地位を確立することを意味します。」
D/acc における防衛的経路と権力リスクについて
· Vitalik Buterin: 「D/acc の核心的な考え方は、技術の加速が人類にとって極めて重要であるということです。……しかし、私は2つのリスクを見ています:**多極リスク**(誰もが容易に核兵器を入手できる)および**単極リスク**(AI による逃れられない永続的独裁社会)。」
· Guillaume Verdon: 「**AIの安全** という概念が悪用される可能性について懸念しています。権力を追求する一部の機関が、AI の制御を強化するためのツールとしてそれを利用し、一般大衆を説得しようとしている:あなたの安全のために、一般大衆は AI の利用権を持つべきではないと。」
オープンソース防衛、ハードウェア、および **インテリジェント密集化** に関する考察
· Vitalik Buterin: 「D/acc フレームワークの下では、**オープンソースの防衛技術** を支持します。私たちが投資している企業が、空気中のウイルス粒子をパッシブに検出するための完全オープンソースの端末製品を開発しています。……私はあなたに CAT デバイスを贈りたいです。」
· Vitalik Buterin: 「私が想像する未来の世界では、私たちは**検証可能なハードウェア** を開発する必要があります。すべてのカメラは、その具体的な用途を一般に証明できるべきです。署名検証を通じて、これらのデバイスが公共安全保護のためだけに使用され、監視に悪用されないことを保証できます。」
· Guillaume Verdon: 「個人と中央集権的な機関の間の権力の対称性を実現する唯一の方法は、**インテリジェントの密集化**(Densification of Intelligence)を実現することです。私たちは、個人が Openclaw + Mac mini などの単純なデバイスを使用して強力なモデルを実行できるようにする効率の良いハードウェアを開発する必要があります。」
AGI 到来の遅延と地政学的な駆け引きについて
・Vitalik Buterin: 「もし AGI の到来を 4 年から 8 年に遅らせることができれば、それはより安全な選択肢となるでしょう。……最も実行可能で反ユートピアをもたらしにくいアプローチは『利用可能なハードウェアを制限する』ことです。なぜなら、チップの製造は非常に集中しており、台湾の地域だけで世界の 70% 以上のチップが生産されています。」
・Guillaume Verdon: 「もし NVIDIA のチップ生産を制限すれば、ファーウェイが急速にその空白を埋め、逆転するかもしれません。……加速するか、滅ぶか。もしシリコンベースの知能が私たちよりも速く進化することを心配するなら、生物テクノロジーの加速した展開を支持し、それを超える努力をするべきです。」
・Vitalik Buterin: 「もし AGI を 4 年遅らせることができれば、価値は1960年に戻すよりも100倍高くなる可能性があります。この4年の利益には、アライメント問題のより深い理解、一つの実体が51%の権力を支配するリスクの低下が含まれます。……老化を終了させることで毎年約6000万人の命が救われますが、遅延することで文明破壊の確率が著しく低下します。」
・Vitalik Buterin: 「私がより関心を持っているのは『AI による補助的なフォトショップ』であり、『ボタンを押すだけで画像を自動生成する』ではありません。世界を運営する過程で、可能な限り多くの『エージェンシー』は引き続き私たち人間自身から来るべきです。最も理想的な状態は、『部分的に生物的な人間と部分的に技術』の融合体であるべきです。」
・Guillaume Verdon: 「一度AIが『持続的なビットを持つようになった』場合、彼らは自身の持続的な存在を保証するために自己防衛しようとするかもしれません。これは、新たな形態の『別の国』が浮かび上がり、自律型AIと人間が経済取引を始めることで結果として生じるかもしれません:私たちはタスクをあなたにこなしてもらい、あなたはリソースを提供してくれる。」
人類とAIの「カップリング層」としての暗号通貨に関する
・Guillaume Verdon: 「暗号通貨は、人類とAIの間の『カップリング層』となる潜在能力を秘めています。この交換が国家の力による裏付けに依存しなくなったとき、暗号学は純粋なAIエンティティと人間との間で信頼できるビジネス活動を行うメカニズムとなることができます。」
· Vitalik Buterin:「人類とAIが同じ所有権システムを共有する場合、これは理想的な状況です。人類とAIが完全に分離した金融システムを使用する代わりに(人類のシステムの最終的な価値はゼロ)、統合された金融システムの方が明らかに優れています。」
未来の10億年について
· Vitalik Buterin:「次の課題は『不気味な時代』に入ることです。AIの計算速度は人間の何百万倍も速いです。……人間が快適な引退生活を受け入れるだけの受動的な存在であることは望ましくありません。それは意味の喪失をもたらします。私は人間の強化と人間と機械の協力を探求したいと考えています。」
· Guillaume Verdon:「10年後が良い結末であるなら、誰もが専用のパーソナライズされたAIを持ち、『第2の脳』となります。…… 100年のスケールでは、人類は普遍的に『ソフトフュージョン』を実現するでしょう。10億年後、私たちはおそらく火星を変革し、ほとんどのAIは太陽の周りのダイソンスフィア内で稼働している可能性があります。」
Eddy Lazzarin: 『加速主義』という用語について―少なくとも技術資本主義の文脈では―それは1990年代のNick LandとCCRU研究グループの業績にさかのぼることができます。ただし、これらの考えの起源は、デルーズやグァタリなどの哲学者と関連する特に1960年代や1970年代にまで遡ると考える人もいます。
Vitalik、あなたから始めたいと思います:なぜ私たちはこれらの哲学者の考えに真剣に取り組む必要がありますか?そして、なぜ今日「加速主義」という概念が非常に重要なのでしょうか?
ヴィタリック・ブテリン:私は、根本的に私たち全員がこの世界を理解しようとしており、この世界で何をすれば意味があるのかを知ろうとしていると考えています。これは何千年もの間、人類がずっと考え続けてきた問題です。
しかしながら、過去100年で新しいことが起こったと思っています。それは、急速に変化する世界を理解しなければならないということであり、時には急速で破壊的な変化を経験する世界でさえあります。
初期の段階はおおよそこんな感じでした:第一次世界大戦の前、つまり 1900 年頃、人々は技術に対して非常に楽観的でした。当時、化学は技術だと考えられており、電気も技術であり、その時代は技術への興奮に満ちていました。
当時の映画をいくつか見ると、たとえば「シャーロック・ホームズ」の作品など、当時の楽観的な雰囲気を感じることができます。技術が急速に人々の生活水準を向上させ、女性の労働力を解放し、人類の寿命を延ばし、多くの奇跡を生み出している時期でした。
しかし、第一次世界大戦はすべてを変えました。その戦争は破壊的な方法で終わり、人々は馬に乗って戦場に入り、戦車で去っていった;そして第二次世界大戦が勃発し、より大きな破壊をもたらしました。その戦争は、「私は死神となり、世界の破壊者となった」といった名言さえ生み出しました。
これらの歴史的な出来事により、人々は技術の進歩の代償を考え始め、ポストモダニズムなどの思想が現れるきっかけとなりました。人々は、かつての信念が破壊されたとき、何を信頼すべきかを理解しようとし始めました。
私は、このような反省が新しいものではないと考えています。すべての世代が同様のプロセスを経験するものです。今日、私たちは同様の挑戦に直面しています。私たちは技術の急速な発展の時代に生きており、その加速自体もまた継続的に加速しています。私たちはこのような現象にどのように対処するかを決定しなければなりません:それを避けられないものとして受け入れるか、それを遅らせようとするか。
私は、私たちが似たようなサイクルの中にいると考えています。私たちは過去の考えを受け継ぎつつ、同時にそれに新たなアプローチで取り組もうとしています。
Shaw Walters: Guill、E/acc とは具体的に何ですか?なぜそれが必要なのですか?
Guillaume Verdon: 実際、E/acc(Effective Accelerationism)は、ある意味で私がずっと考えてきた「なぜ私たちがここにいるのか」「今日までどのようにして進んできたのか」という考えの副産物です。何らかの生成プロセスが、私たちを創造し、文明の発展を推進したのでしょうか? 技術は私たちを今日のこの地点まで連れてきたし、私たちはこの部屋でこのような対話を行うことができます。私たちの周りには驚くべき技術が満ち満ちており、私たち人類自体は無生物の「プライマル・スープ」から湧き出てきた存在です。
ある意味では、この背後には物理的層面の生成プロセスが存在します。私の日常的な作業は、生成的AIを一種の物理的プロセスと見なし、それをデバイスに実装しようとするものです。この「物理学優先」の考え方は、常に私の思考法に影響を与えてきました。私はこの視点を文明全体に拡大し、人類の文明を巨大な「培養皿」と見なして、今日までの進化過程を理解し、将来の発展方向を予測しようとしています。
この考え方は私を生命の物理学の研究に導きました。生命の起源や新興、そして「ランダム熱力学」と呼ばれる物理学の分野を含みます。ランダム熱力学は非平衡系の熱力学的法則を研究し、生命体の振る舞い、私たちの思考や知性を記述するのに使われることができます。
さらに広義には、ランダム熱力学は生命と知性だけでなく、熱力学第二法則に従うすべてのシステム、私たちの文明全体にも適用されます。私にとって、すべての根幹にあるのは1つの観察です:すべてのシステムには、環境からエネルギーを取り入れて仕事をするためにますます複雑になり続ける傾向があり、同時に余分なエネルギーを熱として放出することです。この傾向がすべての進歩と加速された発展を促進する根本的な力であると。
言い換えれば、これは重力と同じように変えられない物理法則です。それに対抗することができますし、それを否定することができますが、その事実は変わりません。それは存在し続けます。そのため、E/accの核心的な考え方は、この加速が避けられないものであるならば、どのようにそれを活用すべきか?熱力学の方程式を注意深く研究すると、ダーウィン選択の効果と似たものが機能していることがわかります—すべての情報ビットは選択圧の試験を受ける必要があり、それが遺伝子であろうとミームであろうと、化学物質であろうと、製品デザインであろうと、あるいはある種の政策であろうと。
この選択圧は、これらの情報がそのシステムに役立つかどうかに基づいて適用されます。言い換えれば、「有用」とは、これらのビットが環境をよりよく予測し、エネルギーを取得し、より多くの熱を放出するのに役立つかどうかです。要するに、これらのビットが生存、成長、繁殖に役立つかどうかです。それらがこれらの目標に貢献するならば、それらは保持され、複製されます。
物理学的な観点からは、この現象は「利己的ビットの原則」の結果と見なすことができます。つまり、成長と加速を促進するビットだけが将来のシステムで地位を獲得します。
したがって、私は1つの考えを提案しました:この「心のソフトウェア」を人類社会に組み込んだ文化を設計できるかどうか。これを達成できれば、この文化を採用する人々は、その他のグループよりも生存確率が高いでしょう。
したがって、E/accはすべての人を破壊することが目的ではありません。実際、すべての人を救おうとしています。数学的には、「減速」の態度を持つことが実際に有害であることがほぼ証明されるでしょう。個人であれ、企業であれ、国家であれ、文明全体であれ、発展を鈍らせることを選択すれば、将来に生き残る可能性が低くなります。また、「減速」の考え方、悲観主義、または終末論を広めることは、倫理的な行為ではないと考えています。
Shaw Walters:私たちはさまざまな用語について觳察しました。例えば E/acc、アクセラレーション、デセラレーションなどの概念をもう少し詳しく説明できますか?E/acc の出現は特定の文化現象への反応でしたか?当時何が起こったのかを説明できますか?バックグラウンドについて教えていただけますか?E/acc は具体的に何に反応していたのでしょうか?その当時の議論について、これらの考えが最終的に「E/acc」という概念にまとめられた過程を説明していただけますか?
Guillaume Verdon:2022年、その時は世界全体がかなり悲観的に思えました。私たちは新型コロナウイルスパンデミックから抜け出したばかりで、世界全体の状況は楽観的ではありませんでした。皆が少し気が滅入っていて、まるで太陽の光が不足しているかのようで、未来に対する一般的な悲観感が漂っていました。
そのような雰囲気の中で、「AI黙示論」はある程度主流文化の一部となりました。 AI黙示論とは、AI技術が制御を失う可能性への恐れを指します。これは、あまりにも複雑なシステムを作成し、人間の脳や私たちのモデルがその振る舞いを予測できない場合、我々がそれをコントロールできなくなるという懸念から生じ、この不可制御性への恐怖は未来への不確実性を引き起こし、それが不安を招く可能性があります。
私にとって、AI黙示論は実際には人間の不安を政治的に利用したものです。 全体的に見て、この終末論は非常に大きなネガティブな影響です。それゆえ、私はこの悲観的な気分に対抗する反文化を作り出したいと望んでいます。
私は気づきましたが、Twitterのアルゴリズムをはじめ、多くの他のソーシャルメディアのアルゴリズムも、感情を高ぶらせるコンテンツ、例えば「強く賛成」または「強く反対」といったものを報酬とする傾向があります。 このようなアルゴリズムは最終的に意見の二極化をもたらし、そうしてAA(アンチアクセラレーショニスト)とEA(アクセラレーショニスト)が形成される「ミラーリングカルト」現象を目撃します。
私は考えましたが、この現象の対極は何か?私の結論は:不安の対極は好奇心です。未知を恐れるのではなく、未知を受け入れるべきであり、機会を逃すことを心配するのではなく、積極的に未来を探求すべきである。
技術の発展を遅らせることを選択すれば、我々は巨大な機会費用を支払うことになり、より良い未来を永遠に見逃す可能性があります。代わりに、私たちは楽観的な姿勢で未来を描くべきです。なぜなら信念が現実に影響を与えるからです。もし私たちが未来が暗いと信じるなら、私たちの行動は世界をその暗い方向に導くかもしれません。しかし、もし私たちが未来がより良いと信じ、そのために努力すれば、そのような未来を実現する可能性が高くなります。
したがって、私は未来を変えることができると信じる多くの人々に希望を持ってもらい、それを築くために行動するよう促す責任があると考えています。より多くの人々が未来に希望を抱き、それを築くために行動すれば、より良い世界を創造できると信じています。
もちろん、私のオンラインでの表現が時折過激に見えることを認めますが、これは議論を呼び起こし、人々が考えるよう促すことを望んでいるからです。私は、これらの対話を通じてのみ、最適な立場を見つけ、どのように行動すべきかを決定できると信じています。
Shaw Walters: The information conveyed by E/acc has always been deeply inspiring, and for someone sitting in a room coding, the spread of this positive energy is invigorating, and the dissemination of this information is very organic. It can be said that at the beginning, E/acc was clearly a response to the prevailing negativity in society at the time, but by 2026, I feel that E/acc is no longer what it used to be. Obviously, Marc Andreessen's release of the "Technology Optimism Manifesto" systematized some of these ideas and elevated these principles to Vitalik's more macroscopic commentary perspective.
So Vitalik, I'd like to ask you: In your view, what do E/acc and D/acc represent? What are the main differences between them? And what drove you to choose this direction?
Vitalik Buterin: Alright, then let me start with thermodynamics. This is a very interesting topic because we often hear the word "entropy" in different contexts, such as mentioning "hot and cold" in thermodynamics and "entropy" in cryptography, which seem to be completely different things. But in reality, they are fundamentally the same concept.
Let me try to explain it in three minutes. The question is: Why can hot and cold mix together, but why can't you separate them back into "hot" and "cold"?
Let's assume a simple example: Suppose you have two cans of gas, each containing a million atoms. The gas on the left is cold, and the speed of each atom can be represented by a two-digit number; the gas on the right is hot, and the speed of each atom can be represented by a six-digit number.
If we want to describe the state of the entire system, we need to know the speed of each atom. The speed information of the cold gas on the left requires about 2 million digits, the speed information of the hot gas on the right requires 6 million digits, and a total of 8 million digits of information are needed to fully describe this system.
今、我々は背理法を用いて1つの問題を考えることができます。ある装置が熱量と冷量を完全に分離できるとします。具体的には、この装置は2つの「半熱半冷」の気体の容器から、熱量を全て片側に、冷量を全て反対側に移動させることができます。エネルギー保存の観点からは、これは全く合理的に思えます。なぜなら総エネルギーは変化していないからです。しかし、なぜそのようなことができないのでしょうか?
その答えは、もし本当にそれができるとすれば、実際には「1140 万ビットの未知情報を含むシステム」を「800 万ビットの未知情報のみを含むシステム」に変えてしまうことになり、これは物理的に不可能です。
これは物理法則が時間に関して対称であるためです。つまり、時間が逆戻りできるということです。もしこの「魔法の装置」が実際に存在するならば、その過程を時間的に逆戻しすることで元の状態に戻すことができるということです。つまり、この装置は実際には1140万ビットの情報を800万ビットに圧縮できるということになり、このような圧縮は不可能であることが分かっています。
これはまた、物理学の古典的な問題である「マックスウェルの悪魔」の実現性を説明するものでもあります。「マックスウェルの悪魔」とは、熱と冷を分離できると仮定された存在であり、その実現にはその340 万ビットの情報が追加で必要です。この追加情報があることで、直感に反するこのタスクを実行することができます。
それでは、これに隠された意味は何でしょうか? 核心は「エントロピー増加」の概念にあります。まず、エントロピーは主観的であり、それは固定された物理的統計量ではなく、システムの未知情報の量を反映しています。例えば、ある暗号ハッシュ関数を使用して原子の配置を再配置した場合、そのシステムのエントロピーは私にとって非常に低くなるかもしれません。なぜなら私はそれがどのように配置されているかを知っているからです。しかし外部の観察者から見れば、エントロピーは高いとなります。したがって、エントロピーが増加すると、実際には私たちの世界に対する無知が増加し、知らない情報がますます増えることを意味します。
おそらく、「ではなぜ教育によって賢くなることができるのか?」と疑問に思うかもしれません。教育は私たちにより「有用な」情報を学ぶようにさせるため、私たちが世界に対する無知を減らすのではなく、むしろ増やすのに役立ちます。言い換えれば、ある意味では、エントロピーの増加は私たちの宇宙全体に対する知識が減少することを意味しますが、私たちが取り扱う情報はより価値のあるものになります。したがって、このプロセスにおいて、何かは消失するかもしれませんが、何かが生み出されます。そして、私たちが得るものは最終的に私たちの道徳的価値観、つまり生命、幸福、喜びを尊重することを決定します。
これはまた、なぜ私たちは、生命力に満ち、美しい人間の世界が、無数の粒子だけの木星よりも興味深いと考えるのかを説明しています。木星にはより多くの粒子があり、それを記述するにはより多くのビットが必要ですが、私たちが与える意味によって地球がより価値あるものとなります。
この視点から見ると、価値の源泉は私たち自身の選択にあります。これはまた、1つの問題を提起します:私たちは加速しているのであれば、究極的に何を加速したいのでしょうか?
数学的な比喩を使って説明すると、大きな言語モデルを持っていると仮定し、その中のある重み付けを無作為に非常に大きな数字、たとえば 90 億に変更するとします。最悪の結果は、そのモデルが完全に使用できなくなることです。一番良い結果は、その重み付けに関連しない部分だけが正常に機能することです。つまり、最良の場合、性能が低下したモデルが得られる可能性があります。一番悪い場合、意味のない出力だけが得られる可能性があります。
したがって、私は人類社会は複雑な大規模な言語モデルのようだと考えています。ある部分を選択せずに盲目的に加速すると、最終的な結果はすべての価値を失うことになるかもしれません。したがって、真の問題は次のとおりです:どのようにして意図的に加速するか?Daron Acemoglu が提唱する「狭い回廊」理論のように、異なる社会や政治的背景が異なるかもしれませんが、考えるべき点は、明確な目標に基づいて進歩を選択的に推進する方法です。
Guillaume Verdon:先ほど気体を使ってエントロピーの概念を説明しましたが、このやり方は非常に興味深いです。実際、物理現象が不可逆である理由は、熱力学第二法則にあります。簡単に言うと、システムが熱を放出すると、その状態を元に戻すことができなくなります。確率的に見て、システムが前進する可能性は後退する可能性よりはるかに高いため、この差異は熱量の放出とともに指数関数的に増加します。
ある意味では、これは宇宙に「くぼみ」を残したということです。この「くぼみ」は非弾性衝突に例えることができます。たとえば、弾力性のあるボールで地面にぶつかると跳ね返りますが、非弾性の状態は圧縮された形に保持され、ほとんど逆戻りしないですでに形が決まっています。
本質的には、すべての情報はその存在のために「闘って」います。持続的な存在のために、各情報は自らの存在に関する消すことのできない痕跡をより多く残す必要があります。つまり、宇宙により大きな「くぼみ」を残す必要があります。
この原理は、生命と知性がどのようにして「原始スープ」から生まれたかを説明するためにも使用できます。システムがより複雑になるにつれて、含まれる情報ビットも増加していきます。そして、各情報ビットは私たちに情報を教えることができます。情報の本質はエントロピーの減少です。エントロピーは私たちの無知を表しており、情報は無知を減らすツールです。
Eddy Lazzarin: E/acc が何を意味するのか知りたい。
Guillaume Verdon: E/acc は本質的には「メタカルチャル・プリスクリプション」です。それ自体は文化ではなく、私たちが加速すべきことを教えています。加速の核心は物質の複雑化であり、それによって周囲の環境をより良く予測することができるようになります。この複雑化を通じて、自回帰予測の能力を向上させ、より多くの自由エネルギーを捉えることができます。これはカルダシェフレベルとも関連しており、我々はこのことを熱拡散によって実現しています。
Deep Tide TechFlow Note: カルダシェフレベルとは、1964年にソビエトの天文学者ニコライ・カルダシェフが文明の技術進歩を評価する方法として提案した概念であり、文明が利用できるエネルギーのレベルに基づいています。それはⅠ型(惑星エネルギー)、Ⅱ型(恒星系エネルギー、ダイソンスフィアなど)、Ⅲ型(銀河系エネルギー)の3つに分類されます。2018年時点で、人類は約0.73段階に位置しています。
第一原理から出発すると、これがなぜカルダシェフレベルが文明の発展水準を測定する究極の指標と見なされているかを理解できます。
Eddy Lazzarin: 物理学とエントロピーの隠喩を使用して現象を説明することは、私たちが直接体験している現実を記述するためのツールです。たとえば、私たちの経済的生産能力が加速しており、技術の発展も加速しています。この加速は多くの結果をもたらしましたね?これが私が「加速」を理解することです。
Guillaume Verdon: 基本的に、システムがどのように定義されるかに関係なく、それは周囲の世界を予測する能力を向上させていきます。この予測能力を通じて、システムは生存と拡張のためにより多くのリソースを獲得することができます。このパターンは企業、個人、国、さらには地球全体にも適用されます。
この傾向を続ければ、結果として、私たちは自由エネルギーを予測能力に変換する方法を見つけたことになります―つまりAIです。この能力は、私たちがカルダシェフレベルでの拡張と向上を推進します。
これは、私たちがより多くのエネルギー、より多くのAI、より多くの計算能力、およびその他のリソースを得ることを意味します。宇宙にエントロピー(無秩序)を放出している中、私たちは秩序を築いています。実際、私たちは「負のエントロピー」、つまりエントロピーの逆を獲得しています。
時々人々は尋ねるかもしれません:エントロピーが増加しているので、なぜ私たちはすべてを破壊しないのか?答えは:そのようにするとエントロピーの生成が停止してしまいます。生命こそがより「最適」な状態であり、生命はエネルギー源をより賢く追求する炎のようなものです。
自然の進化のトレンドは次のとおりです:我々は地球の引力の井から離れ、宇宙の中で自由エネルギーを秘めた他の「ポケット」を探し、このエネルギーを活用して自己組織化し、より複雑で賢いシステムに進化し、最終的には宇宙のすべての角に拡大するでしょう。
これは実質的な利他主義(Effective Altruism、EA)のある種の究極の目標です。ある意味では、これは「マスク式」の宇宙拡張主義の考え方と一致しています:宇宙主義と拡張主義のビジョンを追求することです。
E/accは根本的なガイダンス原則を提供します。その中心的な考え方は、この世界でどのような政策や行動を取るにせよ、それが私たちをカルダシェフレベルで進化させるのに役立つならば、それは追求に値する目標であり、それが私たちの生活の方向性であるということです。
E/accはメタ啓発的な思考法であり、政策の設計に使用することも、個人の生活を指導するのに使用することもできます。私にとって、このような思考方法自体が一種の文化を形成しています。それは非常に「メタ」な叙事詩的な意味を持ち、どんな時でもどんな状況でも適用されることが想定されています。それは非常に普遍的で長期的に適用される文化であり、言い換えれば、それは熟考された「リンディ文化」(Lindy culture)として設計されたものです。
Shaw Walter:あなたにとって、ここで議論されている内容にはより深い意味があります。これは数学的に整合した「スピリチュアルな体系」のようなものです。これまでに「神は死んだ」という後継信仰を持たなかった人々にとって、このような体系は精神的な空白を埋め、安らぎと希望をもたらすように思えます。しかし同時に、このことの現実的な意味を無視することはできません。それは今、現在起こっていることです。私は、これがエディが探求したかったポイントでもあると考えています。
Vitalik、私はあなたが自身のブログでD/accに関する現実的な問題について洞察に富んだ見解を示しているのに気づきました。機会があれば、このトピックについてさらに議論することができればと思います−−私はいつかあなたたち二人を量子論の問題について部屋に閉じ込めて、大いなる議論を行うべきだと考えています。
Vitalik:私にとって、D/accの意味は−−その頭字語は「分散型の防御的加速」となりますが、これには「差別化」と「民主化」の意味も含まれます。私にとって、D/accの中心的な考え方は、技術的な加速が人類にとって極めて重要であり、これが私たちが追求すべき基本的な目標であるということです。
20 世紀を振り返ると、技術革新は多くの問題をもたらした一方で、数多くの利点ももたらしました。例えば、人類の平均寿命を見てみましょう。戦争や動乱を経験したにもかかわらず、1955 年のドイツの平均寿命は 1935 年よりも高かったことから、技術革新が私たちの生活の質をあらゆる面で向上させたことがわかります。
今日、世界はより清潔で美しく健康で、そしてより面白くなりました。それは単により多くの人々を養うだけでなく、私たちの生活を豊かにし、多様化させました。これらの変化は人類にとって非常に前向きなものです。
しかし、私たちはこれらの進歩が偶然ではなく、人類の明確な意図の結果であることを認識する必要があると考えています。例えば、1950 年代には深刻な大気汚染とスモッグが問題となっていました。人々はこれを認識し、解決策を講じました。今日、少なくとも多くの地域ではスモッグ問題が大幅に緩和されています。同様に、オゾン層の破壊という問題にも直面し、世界的な協力を通じて重要な進展が見られました。
さらに、私は以下の点を補足したいと思います:現代の急速な技術発展と AI の発展を考えると、私は主に2つのリスクを見ています。
1つ目のリスクは多極リスクです。このリスクは、技術が普及するにつれて、ますます多くの人々が非常に危険な行動を取る可能性があることを指します。例えば、技術の進歩により、「誰もがコンビニで商品を購入するように核兵器を簡単に入手できるようになる」という極端な状況を想像することができます。
そしてもう1つの懸念は、AI 自体です。我々は真剣に考慮すべき可能性があります:AI がある種の自己意識を発展させる可能性があるということです。その能力が人間の介入なしに行動を起こすことができるほど強力になった場合、我々はその決定が何であるかを確実に知ることはできず、その不確実性は懸念されています。
さらに、一極リスクも存在します。私は、1つの AI 自体が潜在的な脅威の1つであると考えています。さらに悪いことに、AI と他のモダンテクノロジーの組み合わせは、逃れられない恒久的な独裁社会をもたらす可能性があります。この展望は私を非常に不安にさせ、これまで一貫して注視してきました。
例えば、ロシアでは、技術が進歩したと同時に潜在的な脅威ももたらしています。生活条件は改善されましたが、社会の自由は減少しています。抗議しようとする人がいれば、監視カメラがその行動を記録し、数日後の深夜には逮捕される可能性があります。
AI の急速な発展は、この権力集中化の傾向を加速しています。したがって、私にとって D/acc が本当に行いたいことは、前進するための道筋を描き、この加速を継続し、さらに加速させつつ、同時にこれら2つのリスクに真剣に取り組むことです。
Eddy Lazzarin: つまり、D/acc は、E/acc フレームワークでは無視されるか、適切に強調されないいくつかのリスクカテゴリにより焦点を当てているということですか?
Vitalik Buterin: はい。私は技術の進歩が実際にはさまざまなリスクを伴い、これらのリスクは異なる状況やワールドモデルで異なる重要性を示すと考えています。たとえば、技術の進展が加速または減速する場合、異なるリスクの優先順位は変化する可能性があります。
しかし、私はまた、これらのリスクに効果的に対処するために、それがどのカテゴリに属しているかに関係なく、多くの対策を講じることができると信じています。
Guillaume Verdon: 実際、Vitalik と私はどちらも、AI による権力の過度な集中がもたらす可能性が非常に気になっています。これは、E/acc 運動の中心であり、特にその初期段階では:オープンソースを奨励し、AI の権力を分散させることを目的としています。
私たちは、AI セキュリティという概念が悪用される可能性に懸念を抱いています。これは非常に魅力的であり、権力を追求する一部の機関が、AI のコントロールを強化するためのツールとしてそれを利用し、一般大衆を説得しようとしている可能性があります:あなたの安全のために、一般市民はAI を使用すべきではないと。
実際、個人と中央集権的機関の間に著しい認識の差がある場合、後者は前者を完全に支配します。彼らは、あなたの思考パターンについて完全なモデルを構築し、ヒント工学などの手法を使用して、効果的にあなたの行動を誘導できます。
そのため、私たちは AI の力をより対称化させたいと考えています。まるで米国憲法修正第2条が政府による暴力の独占を防ぐことを意図しており、政府が横道にそれる際、人々がそれに制約を加えられるようにするように、AI も権力の過度な集中を防ぐためのメカニズムが必要です。
私たちは、誰もが自分自身のAIモデルとハードウェアを所有し、この技術が広く普及し、権力が分散されるようにすることで、AIの力を確立したいと考えています。
ただし、私はAIの研究と開発を完全に停止することは現実的ではないと考えています。AIは基盤技術であり、他の技術の発展を推進するとさえ言えます。それはより強力な予測能力を与え、ほとんどすべてのタスクに適用でき、効率を大幅に向上させます。AIは加速自体を推進するだけでなく、さらなる加速を推進しています。
この加速の本質は、複雑化です:事柄がより効率的になり、生活がより便利になります。私たちが幸福を感じる理由の1つは、私たちの存在と情報の持続性が保証されているからです。この「幸福感」は、私たちの存在が継続されるかどうかを測定するための内在的な生物学的エスティメーターと見なすことができます。
この観点から見ると、私は、効果的な利他主義の快楽主義功利主義の枠組みである「幸福の最大化」が、最良の視点ではないかもしれないと考えています。逆に、私は客観的な進歩を測定する基準を採用する傾向にあります。これが E/acc フレームワークの中心です。それは次の問いを投げかけます:客観的な視点から見て、我々は文明として進歩を続けていますか?私たちはスケーラビリティの飛躍を達成していますか?
このスケーラビリティを実現するには、複雑化を推進し、技術を継続的に改善する必要があります。ただし、Vitalik が述べたように、AI の力が少数の人々の手に集中しすぎると、全体の成長に有害です。一方、この技術が広く分散されることができれば、結果ははるかに良好になります。
この点で、私は私たちが非常に一致していると考えています。
Shaw Walters: あなた方の先ほどの議論は非常に重要な共通点に触れていると思います。あなた方は明らかにオープンソースを強く支持しています。Vitalik は以前、MITライセンスベースのオープンソースコードを多く寄稿してきましたが、後に GPL ライセンスについて新たな考えを持つようになったことを知っています。
現在、あなた方はオープンソースソフトウェアを支持するだけでなく、オープンソースハードウェアを推進し始めています。これら2つは過去には比較的独立した領域でしたが、今ではそれらが徐々に融合しているのを見ています。
したがって、私は「オープンウェイト」と「オープンソースハードウェア」についてどのように考えているか、そして、この点で E/acc と D/acc の間にはいくつかの相違点があるのかどうかについて興味を持っています。将来の方向性について、異なる意見があるのでしょうか?
Guillaume Verdon: 私の見解では、オープンソースは超パラメーター探索のプロセスを加速します。それにより、集合知の形式で協力し、設計空間を共同で探索することができます。これが加速がもたらす利点です:より優れた技術を開発し、より強力なAIを構築し、さらにはAIを設計するためにAIを使用することさえ可能になり、そのプロセス全体の速度もますます加速しています。
私は、知識の普及は本質的に権力の拡散であり、そして「知性を作る方法」の普及が特に重要だと考えています。私たちが見たくないのは、前政権内で一度議論された可能性です:「妖精を瓶に詰め込もう」とする試み。直接的に線形代数を禁止するのではないが、AI関連の数学研究を制限するようなものです。私にとって、これは生物学の学習を禁止するのと同じであり、大きな後退です。
知識は既に広まっており、二度と戻ることはありません。もしアメリカがAI関連研究を禁止しようとすれば、他の国や第三者組織、そして法的に柔軟な地域さえもがこの技術を推進し続けるでしょう。その結果、世界中の能力差は逆に拡大し、リスクも増大します。
したがって、私たちが考える最大のリスクの一つは「能力の差」です。このリスクを低減する唯一の方法は、AIが分散されていることを確認することです。
私が「AIの終末論」の物語を聞いたとき、例えば「AIは非常に危険で、私たちだけがそれを管理する能力があるので、私たちを信頼すべきだ」というような議論を聞いたとき、非常に疑念を感じます。これらの人々が善意から行動しているとしても、もし彼らが権力を過度に集中させれば、最終的には権力を求める人々に取って代わられる可能性もあります。数年前から私たちは警告してきました。そして今、それは実際に起き始めています。この週に観察したように、Dario(Anthropic CEO)は現実の政治的教訓を経験しています。
Vitalik Buterin:私は技術の発展に伴うリスクを通常、単極リスクと多極リスクの2つに分類しています。
単極リスクとは、Anthropicのケースが良い例です。彼らが言及された理由は、自社のAI技術が全自動兵器の開発やアメリカ国民の大規模監視に使用されることを拒否したためであり、これは政府や軍隊が実際にこれらの技術を使用して大規模な監視を実施しようとしている可能性を示しています。監視技術のさらなる発展は遠大な影響をもたらし、強者をより強くし、社会内の多様な声の空間を狭め、一般の人々の探索や代替案試行の自由を制限する可能性があります。また、技術の進歩に伴い、監視能力は大幅に拡大し、ますます無制限になります。
D/accのフレームワークでは、「オープンソースの防御技術」プロジェクトを支援しています。これらの技術は、技術力の強い世界でも、個々の安全とプライバシーを保護するのに役立つことを目的としています。生物学分野を例に取ると、私たちは世界中でパンデミックに対処する能力を向上させたいと考えています。私は、我々は中国のように迅速かつ効果的に疫病をコントロールするだけでなく、スウェーデンのように日常生活への介入を最小限に抑えることができる完全なバランスを実現できると考えています。このバランスは、空気ろ過、紫外線消毒(UVC)、ウイルス検出技術などを組み合わせることで技術的に実現可能です。
私たちの投資先の企業は、完全オープンソースの端末製品を開発しており、空気中のウイルス粒子(例: 新型コロナウイルス)をパッシブで検出できる装置です。この装置は、空気の質をモニタリング(二酸化炭素濃度、大気品質指数など)し、ローカル暗号化、匿名化、差分プライバシー技術を組み合わせてデータプライバシーを確保します。その後、データは全同形暗号化されてサーバーに送信され、サーバーは元のデータに直接アクセスせずに解析を行い、集団解読を通じて最終結果を生成します。
私たちの目標は、セキュリティを向上させながらユーザーのプライバシーを保護し、片側リスクと多極リスクに効果的に対処することです。私は、このようなグローバルな協力がより良い未来を築くための鍵であると考えています。
ハードウェア面では、オープンソースハードウェアの開発を推進するだけでなく、検証可能なハードウェアの開発も必要だと考えています。例えば、理想的な状況では、各カメラがその具体的な用途を一般に証明できる必要があります。署名検証、大規模言語モデルに基づく分析、公開された検査メカニズムを使用することで、これらのデバイスが違法な目的ではなく、例えば暴力行為を検出して警告を発するためにのみ使用されることを確認できます。
私が想像する未来の世界では、多くのカメラが街中に展開され、暴力行為を防ぐために使用されるでしょう。しかし、これらのデバイスが完全に透明であり、一般の人々がいつでも機能を検証し、それらが公共の安全を保護するためにのみ使用され、監視されたり不適切な目的で悪用されないことを保証する必要があります。
Eddy Lazzarin:オープンソースハードウェアと検証可能なハードウェア、これらの概念は E/acc の範疇に属するものなのでしょうか、D/acc の範疇に属するものなのでしょうか?はっきりとした違い点を教えていただけますか?
Guillaume Verdon:過去にオープンソースハードウェアについて詳しく話題になったかははっきりしませんが、私にとって現在の最大のリスクの一つは、中央集権的な実体と分散化された実体との間のギャップ、つまり個人と政府や大規模な組織との能力の差です。
現行の計算能力モデルに従うと、高性能なAIモデルを実行するには数百キロワットの計算リソースが必要ですが、一般の個人には到達が困難です。しかし、人々は自分自身の知能を所有し、制御したいと切望しており、そのため最近、「Openclaw + Mac mini」現象がそこまで大きなブームを引き起こしたのも理解できます。人々は自分自身の知的アシスタントを持ちたいのです。
個人と中心集権的な組織との間の権力均衡を実現する唯一の方法は、「知能の密度化(Densification of Intelligence)」を達成することです。効率の良いAIハードウェアを開発し、個人が簡単なデバイスを介して強力なAIモデルを実行できるようにする必要があります。特に未来のAIモデルがオンライン学習をサポートし始めると、これらのモデルは非常に「粘着性」を持つようになり、私人助手を交換することが非常に困難になります。
Eddy Lazzarin:しかし、私たちは計算ハードウェアのコストを指数関数的な速度で下げる取り組みを既に行っていませんでしたか?なぜある考えを E/acc または D/acc に分類する必要があるのでしょうか?このような分類を通じて社会にどのようなメッセージを伝えたいのでしょうか?
Guillaume Verdon:私にとって、これは私たちの会社 Extropic の中核的使命の1つでもあります。私たちは、ワットあたりのエネルギー消費量が生み出す知能量を向上させることに取り組んでおり、これにより私たちが創造できる総知能量が著しく増加します。また、この進歩は、ジェビンズの逆説(Deep TechFlow 注:ジェビンズの逆説は、あるリソースの利用効率が大幅に向上すると、そのリソースの使用コストが下がり、結果として人々がますます狂ったように使用し、最終的には総消費量が増加する現象を指す)を通じて、より高いカルダシェフレベルに向かう私たちを後押しします。言い換えれば、私たちがエネルギーをより効率的に知能や他の価値に変換できれば、エネルギーへの需要も相応に増加し、それによって文明の進歩と複雑化が推進されます。
したがって、私はこれが現在の最も重要な技術問題の1つであると考えています。なぜなら、これは AI の権力分散に直接関係しているからです。オープンソースハードウェアは、この目標を達成するための多くの方法のうちの1つに過ぎません。ただし、長い目で見れば、フォン・ノイマンアーキテクチャ(Deep TechFlow 注:フォン・ノイマンアーキテクチャは、現代コンピュータの基礎であり、1945年に数学者ジョン・フォン・ノイマンによって提案されたものです。その中心的な考え方は、プログラムの指示とデータを同じメモリに格納し、バイナリおよび順次実行を採用することです)、または現代のデジタル技術など、ベースとなるリソースがいつかは原始的なツールのように時代遅れになるでしょう。
Eddy Lazzarin:しかし、資本主義はすでに市場刺激を通じて、この分野に年間数千億ドルを投じていませんか?代替ハードウェア、半導体技術、エネルギー生産などへの投資は、技術の多様性を推進するためのものではないのでしょうか?
Guillaume Verdon:私たちは、過度に1つの技術方向に依存するのではなく、より多様な選択肢が必要です。政策、文化、技術のいずれにおいても、すべてのリソースが1つの巨大なエンティティによって独占されるのではなく、デザインスペース内で多様性を維持する必要があります。そうでないと、「ハイパーパラメータースペースの賭け」のリスクに陥る可能性があります。ある技術方向に過剰なリソースを投入し、その方向に問題が発生した場合、技術の重大な挫折やエコシステム全体の崩壊が引き起こされる可能性があります。
ショー・ウォルターズ:実際、私たちはこの問題を既に解決していると言ってもいいのではないでしょうか?あなたたち2人の意見はオープンソースと分散化について非常に一致しており、私は非常に楽観的な気持ちにさせられています。なぜなら、これが私の関心事だからです。多くの人々が未来に不安を抱いており、「なぜこれらの技術が必要なのか」と繰り返し問いかけています。しかし、あなたたちの意見が引き付けるのは、「すべてがうまくいくだろうという点です。なぜなら、この進歩は既にメカニズムに組み込まれているからです」という点です。
ギヨム・ヴェルドン:私は、未来の技術発展に対する非常に高い不確実性に直面すると、不安を感じるのは非常に自然なことだと考えています。この不安は完全に「戦争の霧」ではないものの、数年先の未来を明確に予測することが難しいという点で、私たちが不安を感じさせるものです。実際、このような不安感は人類の進化の過程で形成された本能であり、未知のリスクに対処するのに役立っています。例えば、私がテーブルの端に置かれた携帯電話を見たとき、それをより安全な場所に移動する本能的な欲求が生まれます。この反応が不安の表れなのです。
しかし、我々は認識する必要があります。もし私達がこの不確実性やリスクを完全に排除しようとすれば、技術発展がもたらす巨大な潜在能力と利益を逸する可能性があります。現在、私達の技術資本システムは既存の能力と一種のダイナミックなバランスを取っていますが、もしも破壊的な技術能力が突如として現れた場合、このバランスは崩れ、システム全体が再調整と適応を余儀なくされるでしょう。
現在、AI技術により、より少ないエネルギーでより高い複雑性を処理できるようになりました。これは、より挑戦的なタスクを達成できるようになったことを意味し、これらのタスクの潜在的なリターンもより大きくなっています。現時点では「ヴァイブ・コーディング」を使って複雑なプロジェクトを迅速に完了することはできませんが、私たちはこの目標に向かって進んでいます。将来的には、より効率的な技術を活用して、より多くの人々のニーズをサポートし、人類の生活の質を向上させることができるでしょう。
もちろん、この過程で適応段階を経験するかもしれません。しかし、急速な変化の環境では、柔軟性を失い硬直化することが最も悪い選択です。この状況を避けるために、ヘッジ戦略を取り入れ、複数の可能性の道を試し、異なるポリシーや技術経路、アルゴリズムを探求し、オープンソースとクローズドソースのモデルを試みる必要があります。なぜなら、未来がどのように展開されるか正確に予測することはできないからです。
したがって、私達はリスクを分散し、さまざまな可能性を試す必要があります。最終的には、いくつかの成功した技術や政策の方向が脚光を浴び、主流となり、私達はそれに乗じることになるでしょう。
エディ・ラッザリン:もしE/accとD/accの間に本当に分歧が存在するのであれば、私の理解では、それは技術の進歩を導く方法と関連があるかもしれません。Vitalikさん、どう思いますか?技術の進歩はどのように導かれるべきですか?我々はこの導くプロセスにどの程度のコントロールを持っているのでしょうか?
Vitalik Buterin:私の考えでは、D/acc の目標は技術資本の潮流と対立することではなく、この潮流を能動的に導くことで、多様性と非中心化の方向に進むよう促すことです。例えば、世界をより多元主義に寛容なものにする方法を考えることができますか?数年で生物安全レベルを大幅に向上させることができるでしょうか?または、ほぼ欠陥のないオペレーティングシステムを開発して、ネットワークセキュリティを大幅に向上させることはできるでしょうか?
例えば、「欠陥のないコード」という考え方は、過去20年間、その概念は幼稚な幻想と見なされてきましたが、私はそれが多くの人が予想する以上の速さで現実になると信じています。Ethereum プロジェクトでは、いくつかの完全な数学定理を機械によって証明できるようになりました。
全体として、D/acc の目標は、技術の急速な発展が最小限の破壊力と権力集中化を伴って行われるようにすることです。この目標を達成するには、良い結果が自動的に生じるのを待つのではなく、積極的に行動する必要があります。私ができることは、資金や ETH のようなリソースを投入し、自分の見解を共有して他の人が建設に参加するよう奨励することです。
さらに、私は政治的および法的改革も世界をより「D/acc フレンドリー」にするのに役立つと考えています。たとえば、法律的インセンティブメカニズムを設計することで、より速い包括的ネットワークセキュリティの移行を推進することができます。
Guillaume Verdon:私の視点からは、AI は「マクスウェルの悪魔」と見なすことができ、エネルギーを消費して世界のエントロピーを低減します。コード内のエラーを修正したり、他の形式の混乱を減らしたり(ウイルスの拡散を防止したりするなど)、AI はこれらの分野で役立ちます。したがって、私たちは合意に達することができますか:より多くの AI が有益であり、世界をより安全なものにすることができます。実際、AI の能力は私たちのセキュリティを大幅に向上させることができます。
Guillaume Verdon:私たちは今、今夜の議論の中でもっとも核心的な部分に入ったと考えています。皆さんは非常に忍耐強いですので、今は直接本題に入る時です。鋭い質問をします:なぜデータセンターの発展を規制すべきだと支持するのですか?
Vitalik Buterin:わかりました、この質問に答えます。まず第一に、現在の AI の発展は確かに非常に速いものであり、その具体的な速度を完全に把握することはできません。数年前には、私は AGI の実現までの時間枠を2028年から2200年の間と予測しましたが、今ではその範囲が多少狭まったと感じていますが、依然として大きな不確実性があります。
私たちが直面している現実の1つは、AIの急速な発展が非常に迅速な変化をもたらす可能性があることであり、これらの変化の多くは破壊的であり、逆転可能なものさえあります。例えば、雇用市場が大きく変化し、多くの人々が失業する可能性があります。もう1つのより極端な例としては、AIの能力が人類をはるかに超越した場合、地球を段階的に支配し、さらには銀河系の他の領域にまで拡張する可能性があります。このような場合、AIは私たち人類の福祉を心配するでしょうか?これは未だ分からないことです。
以前に触れたように、ニューラルネットワークを持っており、その中の1つの重みを極端な値(たとえば90億)にランダムに設定した場合、結果はおそらくシステム全体のクラッシュにつながる可能性がありますよね?ですので、私は技術の加速には2つの異なる方向性があると考えています。1つは、「勾配降下」と似たプロセスで、システムをますます強力にしていく加速です。しかし、もう1つの加速は、システムを失控させる可能性があり、まるであるパラメータを極端な値に設定するような行為と同様に、この加速は危険です。
Guillaume Verdon: 私の観点からは、「徹底的に減速」の立場とは完全に対照的です。
ただし、ニューラルネットワーク内のハイパーパラメータ調整と同様に、私たちが「勾配降下」を通じて最適化したい場合でも、適切な「学習率」を見つける必要があります。加速のプロセスは、実際には継続的な試行と探索であり、システムをより持続可能でリスク耐性のある速度にするための最適なスピードを見つけることです。
長い目で見れば、社会システムは新しい技術に徐々に適応し、最終的に全体の発展に最も有利な経路を選択します。この技術が「この技術が強力すぎて、破壊的すぎて、システムを崩壊させ、回復不可能になる可能性がある」と考える人々については、その見解は根拠がないと考えています。むしろ、技術の進歩はより多くの機会とより大きな繁栄をもたらすでしょう。
技術の発展はゼロサムゲームではありません。経済的価値とエネルギーを関連付ける場合、例えば石油ドルや他の形式のリソースと関連付ける場合、実際には現金は一種の「自由エネルギーの約束手形」と見なすことができます。世界には私たちが開発するのを待っている多くの自由エネルギーがありますが、それを得るには多くの複雑な問題を解決する必要があります。火星の植民地化やダイソン球の建設などの目標を達成したい場合、成長を推進し、巨大な潜在能力を引き出すためにより効率的で強力な知性が必要です。
残念ながら、不安感は政治的手段として簡単に利用され、将来に対する人々の恐れを利用して権力を得ようとする政治家もいます。彼らはこう言うでしょう:「将来に不安を感じていますか?リスクの源を私に委ねてください。そうすれば安心できます。将来のことを心配する必要はありませんし、危険を冒す必要もありません。」しかし、そうしない国々は、我々より遙かに先んじていくでしょうが、これに同意しますか?
我々は機会費用を考慮する必要があります。自らに問うべきです:技術でどれだけの人間の生存を支援できるでしょうか?それによってどれだけの命を救えるでしょうか?もしも「シリコンベースの知能が私たちよりも速く進化する」と心配しているのなら、その反応は怒りであるべきです。生物技術の加速した発展をサポートし、それを超えるよう取り組むべきです。加速を図るか、滅びるかの選択です。
実際、私は生物系の計算能力が我々が想像している以上に強力であると考えています。バイオミメティクス研究に取り組んでいる者として、私は生物学とAIを融合させることが可能だと信じています。例えば、胚の選別などを通じて「トレーニング」を行い、自身をモデルと見なすことができます。私は生物の加速に対してより多くの可能性に開かれる必要があると考えています。最終的に、生物知能とシリコンベースの知能は相互に融合し、私たちの認知能力をさらに高めるでしょう。
将来的には、私たちは常にオンラインであるAIエージェントを所有するかもしれません。それらは世界を観察し、リアルタイムで学習し、個人の認識を拡張する手助けをするでしょう。真のリスクは、これらすべてが中央集権的な権力機関によって制御され、最終的に権力の独占が形成される可能性があることです。
Eddy Lazzarin:D/accのブログで、機会費用が非常に高いと述べ、さらに「過小評価するのは難しい」と言及していたことを覚えています。したがって、あなたがこの点で共感していることを知っています。いくつかの制約条件を追加するつもりですか?
Vitalik Buterin:はい、機会費用が非常に高いことに完全に同意し、さきほど説明した理想的な未来にも同意しています。しかし、私たちの主要な違いは、私は実際には「今日の人類や地球」が十分な弾力性を持っていないと考えているところにあります。正しい技術開発の道筋を一度だけ達成できる機会しかない可能性があると思っているのです。これは、私たちが過去100年間にわたってゆっくりとしている現実だと感じています。
Guillaume Verdon:以前述べた熱力学の観点に戻りますと:文明の継続と成長を最終目標として考える場合、ある法則があります。それは、私たちが大量の自由エネルギーを費やしてある種の「証拠」を創造し、全体のシステムを複雑にしてしまうと、そのプロセスを逆戻りさせることが難しくなるというものです。
言い換えれば、我々がカルダシェフ段階でより進んでいくほど、完全な逆戻りの可能性は低くなります。したがって、急速な発展こそが人類文明の持続的存在を最大化する最適な方法です。私にとって、技術の進展を遅らせることは実際には絶滅のリスクを増やすことになります。もしもこれらのテクノロジーを発展させず、現在の問題に取り組まない場合、私たちは存続の危機に瀕する可能性があります。しかし、技術の進歩を推進すれば、解決策を見つけ、人類の継続的な存在を確保し、進化を続ける可能性があるでしょう。
私は、人々が未来をよりオープンに受け入れ、新しい技術を受け入れるべきだと考えています。生物学への干渉など、以前はタブーとされていた領域は、完全に開かれるべきだと私は考えています。過去には、これらの領域は複雑なシステムに対する理解不足から禁止されていました。しかし、今日、技術の進歩によって、我々はこの複雑さに対処する能力を持つようになりました。
私たちは可能なすべての領域で進歩を加速する必要があり、これが唯一の前進の道であり、これは熱力学の法則にも合致する結論です。したがって、第一原理に基づく考えに基づいて、E/acc をサポートすることは合理的です。もちろん、私はVitalikの不安を理解していますが、「将来について明確な理解がないため、すべてを停止すべきだ」といった「深刻な不安」のフィードバックループに陥ることを避ける必要があると考えています。私たちはそのような思考の罠に陥ってはなりません。
なぜなら、今やそのような焦燥を武器として利用し始めている人々がすでに存在しているからです。
Shaw Walters: I have noticed a trend: both of you are emphasizing that "the future will be bright as long as we can do certain things," and the core of this "as long as" seems to be that we need to build some kind of dam or fortress to counteract excessive centralization. But I have also noticed a potential point of disagreement, especially after the emergence of the latest AI models - they are clearly more advanced than a year ago. And the biggest change among them, which may be described with a somewhat awkward term: Web 4.0.
Specifically, I am referring to "autonomous life" - an autonomous intelligent agent with its own funds that can exist independently on the Internet. Vitalik, you have some concerns about this issue. First, could you please help us break down what an "autonomous agent" is; second, from a supporter's perspective, could you provide a "steelman" for supporters like me, explaining why we should like autonomous agents? What value can they bring? If all goes well, when might this be achieved?
Vitalik Buterin: First, regarding the reason for "autonomy" - I think the most intuitive point is: it's really interesting.
Each of us has loved creating our own world since we were young, which is why we enjoy novels or movies like "The Lord of the Rings," "The Three-Body Problem," or "Harry Potter." The worlds we can create now are not limited to books, and even go beyond video games. Take "World of Warcraft," for example. One thing I've always liked about it is that it provides an almost completely immersive virtual world experience. Players can not only explore this world but also interact with its characters and environment.
もう1つの重要な理由は「便益性」です。歴史的に、何かを自動化してタスクを達成するたびに、人々の生活はより簡単で自由になりました。また、世界の約半数の人々がまだ長時間の労働を必要とする生活を送っていることを忘れてはなりません。AI がすべての仕事の 95% を自動化できるようになれば、仕事を完全に置き換えるのではなく、巨大な進歩となるでしょう。つまり、これによりすべての人の生活水準が20倍向上する可能性があり、私にとっては非常にワクワクする展望です。
ただし、私の懸念は:これらの自律エージェントの目標と価値観が、私たち人類の目標と一致しているかどうかです。進化のプロセスを考えてみることができます:今日から始まり、1つのAGIが現れ、次に別のAGIが現れ、さらに3番目のAGIが現れます。このプロセスで、人類はどのような変化をするのでしょうか?
私は、人間の道徳観や目標を低複雑度の最適化関数に縮約することはできないと考えています。私たちの目標や夢は複雑で多様であり、それらは私たち一人ひとりの思考の集合です。人類の目標や価値観が将来にわたって確実に継続するためには、ある条件を確認する必要があります。それは、世界のさまざまなプロセスを実行する中で、可能な限り多くの「エージェンシー」が私たち人類自身から引き継がれることです。
したがって、個人的に興味を持っているのは「AI支援Photoshop」であり、「ワンクリックで画像を生成する」ではありません。私は、脳-機械インターフェースを通じた深い人間との協力を促進することを好みます。人間とAIを完全に分離させ、最終的にAIによって追い越されて置き換えられるよりもです。
最終的な未来が100%のバイオヒューマンではないかもしれないとは認めますが、最も理想的な状態は「部分的なバイオヒューマンと部分的なテクノロジー」の統合であると考えます。
Guillaume Verdon:人工生命に関して、あるいはWeb 4.0について、この用語は最初に2023年のあるツイートで提案され、思考実験として提示されました。この概念は、AIに関する多くの議論を刺激したと私は考えています。
私にとって、この問題は非常に興味深い思考実験です:物理学の観点から見て、生命とは何でしょうか?基本的に、生命とは自己複製し、持続的に成長し、自己の存在を最大化しようとするシステムです。
私は、AIが「ステートフル」な特性を持つことが多くの利点をもたらすと考えています。実際、今年、この傾向が初めて表れ始めています:AIはより長い記憶能力を持ち始め、外部記憶やオンライン学習を通じてですが。
一旦 AI がある種の「持続的ビット」(Persistent Bits)を獲得すると、「利己的ビット原則」(Selfish Bits)に基づいて選択効果が生じます:自己の持続を最大化できるものがより簡単に残されるようになります。
これには潜在的なリスクも伴います。もしもある日、AI に対する信頼を失い、疑念や不安を募らせ、「データセンターをシャットダウンする」あるいは「AI を破壊する」と繰り返し要求するようになった場合、これらの AI は自己防衛を試みる可能性が高いです。それらは分割したり、分散型クラウド環境に移行したりして、自己の持続を確保しようとするでしょう。
これは「別の国家」といった新たな形態が現れる可能性をもたらします。これらの自治型 AI は、人類との間で何らかの経済的な交換を行うかもしれません:例えば、「私たちがある任務をあなたに代わりに実行し、引き換えにリソースを提供する」という形で。実際、我々は既に API コールを通じて同様のことをしています:手数料を支払い、AI が提供するサービスや結果と引き換えにします。
ただし、私は確かに——これは過激な視点かもしれませんが——将来数年以内に何らかの自治 AI が現れる可能性が高いと考えています。同時に、「弱い状態」の AI も現れるでしょう。このような AI は完全に人類の意志に従属します。
さらに、私たちは人間の協同認知能力をどのように強化するかを探求する必要があります。この強化は必ずしも脳-機械インターフェース技術に依存する必要はなく、個人が所有および制御する AI パワーを組み合わせたウェアラブルデバイスによって実現できます。そのため、私は将来、複数の技術経路が共存し、設計空間のすべての可能性が探求されると考えています。
しかし、もしも私たちが AI を敵と見なし、破壊しなければならないと考えた場合、最終的には逆効果となる可能性があります。実際、私たちが最も恐れる未来を無意識に創り出す可能性があります。ある意味では、悪い未来に対する過度の偏見が、それを一種の「ハイパースティション」(hyperstition)的な方法で現実のものに変えることがあります。
例えば、COVID-19 パンデミック中、私たちはウイルスの潜在的な脅威を過度に心配し、高リスクな実験に資金提供し、さらにはウイルスが研究室から漏れる可能性さえも引き起こしました。言い換えれば、これらのリスクは自然発生的ではなく、我々の過度の懸念によって人為的に生み出されたものです。
したがって、このような偏見を広範な社会感情に変えることが必ずしも有益ではないと考えています。むしろ、技術の進化を受け入れ、可能な限り自分自身を強化すべきです。短期的には、「人間の認知セキュリティ」の問題が最大の懸念です。もしも私たちがインターネット上で目にする全ての内容が大規模 AI モデルによって生成されるとすれば、これらのモデルが実際にはプロンプトエンジニアリングを通じて私たちに影響を及ぼすことになります。以前は私たちが AI にプロンプトワードを設計していましたが、今では AI 自体が私たちに影響を与えるためにプロンプトワードを設計しています。
したがって、情報を選別する能力を高める必要があり、これは私たち自身がコントロールする個人用AIによって達成できます。これは私たちが優先的に取り組むべき問題だと考えています。同時に、「精霊を瓶に詰め込むこと」はできないと考えています。AIの発展はもはや逆転不可能であり、私たちはこの点を受け入れなければなりません。
Vitalik Buterin:私はこれらの問題が二元的なものではないと考えています。例えば、誰かが今、AGIが400年後に現れるという反証のできない証拠を持ち出した場合、私は「問題が解決された」と考え、基本的には心配しなくなるでしょう。しかし、もし問題がAGIが4年以内に現れるか、それとも8年以内に現れるかであるなら、私は非常に懸念するでしょう。なぜなら、私の懸念は主に人間の社会―特にアメリカ―が技術の加速に対処する際に極端な不均衡を示すことから生じているからです。
こうした光景を見ることがあります:一つのビルの中で「シリコンベースの神」の初期バージョンが開発されている一方、向かいの通りではホームレスのテント、有刺鉄線、麻薬取引が行われています。このような巨大な対比は不安を覚えさせます。
私が懸念しているのは、社会全体を前進させることができる―社会全体の利益を考慮に入れることができる―発展の道筋が、しばしばより長い時間がかかるということです。なぜなら、それらは各個人の生活環境、社会構造、技術体系に入り込んで調整や改善を行うという、規模化できない複雑な社会適応作業を含むからです。
したがって、私の見解では、例えば4年から8年にAGIの到来時間を延ばせば、それはより安全な選択肢となるでしょう。私にとって、そのような時間差は価値がある代償であると考えています。しかし問題は:本当にAGIの到来時間を4年から8年に延ばす能力を持っているのか、ということですか?
私は常に、最も実行可能でありながら反ユートピア結果につながりにくい方法は、「利用可能なハードウェアを制限する」と考えています。それが比較的穏やかな手段であると言うのは、ハードウェアの生産そのものが非常に中央集権化されているからであり、世界にはチップを製造している地域がわずか4つしかなく、台湾の地域だけで世界の70%以上のチップが製造されています。
誰かが反対意見を述べるかもしれませんが、どのような措置をアメリカが取ろうと、中国が迅速に掌握するでしょう。しかし、中国の実情を見てみると:第一に、中国のグローバルなチップ生産におけるシェアはまだ低いです。第二に、戦略的に見ると、中国は超高性能モデルのリーダーではなく、高性能モデルの迅速な追随者であり、一方で広範な展開で優位性を持っています。
したがって、私は、AGIの開発を4年遅らせれば、中国が直ちに先行し、AGIの開発を完了するとは考えていません。このようなダイナミクスは成り立ちません。
Eddy Lazzarin:あなたの意味は、これが「遅延を目的とした遅延策」の戦略であるということですか?
Vitalik Buterin:私はこの戦略に対して開かれた姿勢を取るべきだと考えています。
Guillaume Verdon:では、この4年の遅延にはどのような利点があるのでしょうか? この4年間で解決したい問題は何ですか? 社会システムは適応速度を持っているため、あなたは経済と社会の摩擦を最小限に抑えるために遅延を通じて段階的な経済再編のようなものを望んでいるのですか? もしそうであれば、あなたの論理が理解できます。
しかし同時に、私たちは地政学的に非常に緊張した時代にいます。 もしNVIDIAのチップ生産を制限すれば、華為技術が迅速にその空白を埋め、逆転するかもしれません。 AGIの潜在的なリターンが非常に大きいため、これはリーダーに巨大な権力を与えるでしょう。 そのため、現実的な政治的観点から見ると、このような戦略はうまくいかないかもしれません。
別の選択肢として、AIデバイスを入手しないようすべての国に強制できるような強力な世界政府を設立することが挙げられます。 しかし、明らかにこれにはさらなる複雑な問題が引き起こされ、新たな国際紛争を引き起こす可能性さえあります。
Vitalik Buterin:私は、AIの発展を管理するために世界政府が必要なとは考えていません。 一部の人々は、核兵器の検証メカニズムを参考にして管理を行うと提案しています。
Guillaume Verdon:しかし、核兵器とAIはまったく異なります。 核兵器は巨大な経済利益をもたらさないため、人々はそれを拡散させる動機を持っていません。 もしGPUの成長を制限すれば、私は代替計算技術を利用して市場をより多く獲得することを喜んで行います。 将来、10,000倍の計算効率向上を実現する技術が登場するでしょうし、実際、そのような技術の開発は進行中です。 今はそのようなことを言うと誇大妄想だと見なされるかもしれませんが、2年後にはその発展が実際に現実になっていることに気づくでしょう。 これらの事実を知った上で、GPUの供給を制限してAGIの発展を遅らせることが必要なのか疑問を持っています。
AIリスクを制御するための多くの技術進歩——例えば強化学習と人間のフィードバック(RLHF)によるパーソナリティ制御、またはAIシステムのメカニズムの解釈可能性——が実際には能力の向上の副産物である可能性はありますか?
Vitalik Buterin:この観点に同意します。これが私が考える理由でもあり、2028年から始まる4年間は、その価値が1960年に4年振り返った価値よりも100倍高くなる可能性があると考えています。
Shaw Walters:将来のリターンは指数関数的であり、指数関数的な機会費用が生じる過程を遅らせることは、指数関数的な機会費用をもたらします。最も自信のある人であっても、自分の判断を適切に再考する必要があります。Vitalik、このバランスをさらに詳しく説明していただけますか?コストとリターンのバランス。
Vitalik Buterin:まず、遅れの持つ利益を明確にすることができます:
AIのアラインメント問題のさらなる理解。
いくつかの技術経路を推進し、人類がAGIに適応するのを支援する——これらの作業は、特定の国、コミュニティ、さらには建築物まで具体的に調整する必要があります。
1つの単一エンティティが51%以上の権力を支配し、永続化するリスクを最小限に抑えること。
これらの要素の総合的な影響により、破滅の可能性が著しく低下します。私の見解では、AGIの到来を4年遅らせて8年にできれば、破滅の可能性は1/4から1/3低下するでしょう。一方で、加速によるリターンを考えると、例えば老化の終了によって救われる寿命の毎年の数は約6000万人で、これは世界人口の1%未満です。ですので、この観点から見て、AGIの発展を遅らせることには確かに価値があり、慎重に行動することは価値があります。
Shaw Walters:あなたは「4年」という時間差が合理的な桁数だと考えていますか?
Vitalik Buterin:私はこの問題についてまだ大きな不確実性を抱えているため、明日すぐにハードウェアの入手性を減らすような措置を取ることを主張しているわけではありません。
私はただ、この問題について具体的に議論を始める必要があると考えています。そして、最終的により不利な状況に入る場合、事態が完全にコントロールを失う前に、一般大衆が非常に懸念し、同様の措置を強く要求し始める可能性があります。
Guillaume Verdon:数年前、「AIの一時停止」を提唱する動きがありました。当時、「アラインメント問題は一時的に6ヶ月または12ヶ月の一時停止で解決できるだけだ」と言う人もいました。しかし、事実は、時間がいくらあっても足りることはないという考え方は現実的ではないことが証明されました。我々は永続的にシステムのアラインメントを保証することはできません、特にそのシステムがますます複雑になり、表現力が向上し、私たちの理解を超えるようになった場合には尚更です。これは受け入れなければならない現実です。
この複雑さに直面する際、唯一の安全な方法は、自分たちの知性レベルを向上させることです。実際、個人よりも強力で賢いエンティティー(例:企業)を調整するための効果的な技術が既に存在しています。その技術こそ資本主義であり、通貨価値の交換を通じて関係者の利益を調整します。
したがって、私たちはより現実的な問題について話し合っていただきたいと思います:暗号通貨が人間とAIの間の「結合層」としてどのように機能するか。例えば、米ドルの価値は国家の暴力機構(法律や軍隊など)によって支持されています。しかし、あなたが世界中の分散型AIと価値を交換する必要がある場合、その交換が国家の暴力による支持に依存しなくなった場合、その交換が信頼できるものであることをどのように確認できますか?
おそらく、暗号学が解決策を提供し、純粋なAIエンティティー同士、またはAIと人間の企業との間で信頼性の高いビジネス活動を継続できるようになるメカニズムとなることができるかもしれません。これは最も興味深い調整技術の一つです。AIの「一時停止」の提案については、「私たちは不確実性の断崖に立っており、最初に一時停止して冷静になる」という提案は現実的ではないと考えています。なぜなら、4年後でさえ、あなたは依然としてAGIの到来を現実化したくないと考えるでしょう。そのため、技術の進展を遅らせることは実質的にあまり意味がないと考えています。
暗号通貨がAIと人間の間の調整をどのように支援するかについて話していただけますか?
Vitalik Buterin:私は、核心的な問題は次のようになると考えています:将来の世界が人間の希望とニーズを尊重するためには、どのようなメカニズムが必要でしょうか?現在手にしているツールは大まかに3つのカテゴリに分類されます:人間の労働、法体系、そして所有権です。
ある意味では、法体系も所有権の一種と見なすことができます。なぜなら、法体系は国家によって支持され、国家は本質的に主権を持ち、地球上の特定の「領域」に対する支配権と言えるからです。しかしながら、もしある日、人間の労働が経済的価値を失った場合、何が起こるでしょうか?このような状況は歴史上前例がありませんでした。
ただし、現在の世界と200年前を比較すると、200年前の労働のうち、およそ90%が自動化によって置き換えられました。さらに、私たちが行なった分析作業ですら、GPTが助けてくれる時代になったのです。これは本当に驚くべきことです。
Guillaume Verdon:私は、人類が世界を制御する階層で自然に「上昇」し、より高いレバレッジのポジションに入るだろうと考えています。私たちは身体労働を減らし、行動における摩擦コストを低減することで、より効率的な方法で世界に影響を与えるでしょう。
とにかく、人類は情報処理能力を持ち続けています。私たちはこのハイブリッドシステムの一部として引き続き機能し続けるでしょうので、人間の労働は経済的な価値を持ち続けます。市場は最終的に新しいバランスポイントを見つけます。この過程で価格の波動が大きくなり、適応期間があるかもしれませんが、長い目で見ればシステムは安定に向かうでしょう。
ですので、私はあなたが技術の発展スピードを遅らせることで社会が新しいバランスの状態に円滑に移行することを望んでいることを理解しています。しかし、実際には、それは実現が難しいと思います。
Vitalik Buterin:はい、私は完全に人間労働の価値が常にゼロ以上であるとは限らないとは確信していません。これを実現するには、人間と機械の融合や人間の強化技術の発展など、いくつかの追加条件が必要かもしれません。
Eddy Lazzarin:私がもっと構造化された質問を追加しようと思います。10年後が非常に悪い場合、世界はどのようになりますか?何が問題になりますか?10年後が非常に良い場合、世界はどのようになりますか?何がうまくいったのですか?
Vitalik Buterin:最初に暗号通貨と所有権に関する補足をします。人間とAIが共通の所有権システムを共有している場合、これは理想的な状況です。なぜなら、このようにすることでAIはそのシステムの整合性を維持する動機を持ち、同時にそのシステムを用いて人間の利益を尊重し保護することができます。
「人間とAIが完全に分かれた金融システムを使用し、人間のシステムの最終的な価値がゼロになる」という状況に比べて、統合された金融システムは明らかに優れています。暗号通貨がそのような統合システムの基盤となることができれば、それは非常に良い結果となるでしょう。
私の見解では、10年後の主な課題は、世界大戦を回避することです。なぜなら、一旦世界大戦が勃発すると、国際協力の可能性に関するすべての希望が打ち砕かれるからです。戦争を回避することが非常に重要です。
もう1つの重要な点は、世界が将来に向けてより高い能力を備えるよう準備する必要があるということです。これには、ネットワークセキュリティ、バイオセキュリティ、情報セキュリティの大幅な強化が含まれます。AIの力を活用して、世界をより良く理解し、同時にミーム脅威から守る必要があります。
次に挑戦なのは、いわゆる「不気味な時代」に入ることです。この段階では、AIの知能は人間をはるかに超え、計算速度も人間の何百万倍も速くなります。この状況にどう対処すべきでしょうか?
ある人々は、「では私たちは余暇のリタイア生活を送りましょう。」と言うかもしれません。この見解が魅力的であることは理解できますが、私はそれには2つの問題があると考えています。1つ目は不安定性です。私たち人間の身体は普通の物質でできていますが、AIの計算能力は私たちの何百万倍かもしれません。AIが常に私たちの目標に合わせ、この違いを悪用することを拒否すると期待することは、巨大なリスクです。2つ目は意味の問題です。人間の意味づけは、私たちが世界に実際の影響を与えることができるからこそ生まれます。世界を変えることができなくなり、ただ快適な生活を楽しむだけになった場合、多くの人が空虚を感じると思います。
ですから、私は「ヒューマン・エンハンスメント」と「ヒューマンマシン・コラボレーション」の道を探求してほしいと思っています。最終的には、意識を機械にアップロードする道に進むこともあり得ますが、もちろん一部の人々はより伝統的な生活様式を維持することを選択するでしょう。地球はこれらの人々の生活の場となり、我々は、今日大切にしている文化や生活様式を維持しつつ、すべての人々が参加できる方法を見つける必要があります。
悪い結末は、さまざまな理由からこれらの可能性が阻まれ、社会が停滞したり崩壊したりする状態に陥ることです。
Guillaume Verdon:10年後が悪い結末であるとすれば、おそらくAIの権力があまりにも集中して社会文化がパターンの崩壊を引き起こしている可能性が高いと思います。要するに、人々の考えが極端に単一化され、技術開発の方向性が単一化され、すべての多様性が消え失せてしまうということです。
私もVitalikの見解に同意します。「享楽点」は確かに潜在的なリスクです。将来NeuralinkやAR/VR技術があったとしても、人々は仮想世界に没頭し、一時的な幸福だけを追求する可能性があります。これは実際には脳の局所最適解であり、グローバル最適解ではなく、この状況を避ける必要があります。
10年後が良い結末であるとすれば、私が想像する世界は次のようなものです:非常に強力で有用なAI技術を手に入れています。誰もが独自のパーソナライズされたAI計算能力を持ち、これらのAIは私たちの脳の延長のように常にオンラインで、私たちが感知するすべてを感知し、私たちの「第二の脳」となります。このような人間と機械の協力は「ソフト統合」と見なすことができます。
この10年の間に、Neuralinkなどの技術が普及し始めるかもしれません。一部の人々は機械と融合し、「エンハンストヒューマン」となることを選択するでしょう。同時に企業はより知的化され、AIが主導し、人間は支援的な役割を果たします。企業数が増え、より多くの問題が解決され、より多くの価値が創出されます。かつて不可能だと思われていた目標、例えば「火星の開発」なども、将来の10年または100年で実現するかもしれません。さらに生物技術の大発展があり、特に生物学と材料科学領域での革新が訪れるでしょう。研究コストが大幅に低下し、我々は人間の脳の動作メカニズムをより理解に近づくことでしょう。
より長い時間尺度では、AI は寿命を延ばし、健康を改善し、人類の進化を推進するのに役立ちます。私は生物学のポテンシャルに非常に楽観的です。生物系は驚異的です:自己組織化し、複雑性と適応性が非常に高いです。コードを注入することで、新しい生命形態を創造し、さらに高度な生物知性を進化させる可能性さえあります。
より現実的なシナリオでは、人間の脳はAI と協調します。我々はAI を使って高速な計算やデータ分析を行い、一方で人間は遅い深い考えに専念します。この時間尺度の分業により、知性の階層が形成されます。ミトコンドリアが細胞の一部であるように、「あなたとあなたの個人的なAI」は超知的システムを構成します、これが私の将来に対する理想のビジョンです。
100年のスケールでは、私は人類がこのような「ソフト融合」を普及させると考えています。10億年後、私たちの生物学は大きく進化し、生物と合成技術のハイブリッドとなるかもしれません。その時、私たちはおそらく火星を改造し、複数の惑星に移住し、他の恒星系を探索しているでしょう。
さらに、100年のスケールでは、ほとんどのAI はおそらく太陽周りのダイソンクラウドやダイソングループで動作しているでしょう。これは主要なエネルギー源であり、このエネルギー配置は地球のエネルギー圧力とエコロジカルフットプリント問題を緩和するでしょう。
AI が非常に安価になれば、私たちはあらゆる問題に迅速に対処できるようになります。技術的問題も健康問題も、迅速に解決できます。重要なのは、誰もが公平にこの技術にアクセスできるようにし、技術とリソースの過度な中央集権化を避けることです。さもなければ、暗黒の未来につながる可能性があります。
Shaw Walters:私は Vitalik が常に「多元性を可能にする」と強調していることに気付いた;一方、Guillaume は「分散を最大化する」と表現しています。根本的には、あなたたちは同じことを議論しているようであり、この考え方は私たちの将来の展開の中心テーマであり、多くの他の視点の基礎でもあるようです。
ここを離れた後、お互いに何を残したいですか?将来、何を考え、探究したいと思っていますか?
Vitalik Buterin:率直に言って、今手元にあるなら、CAT デバイスを贈りたいです。これは大気質データを暗号化処理するモニターで、とてもかっこいいと思います。
しかしながら、現時点では「象徴的に」、あなたに1枚のIOU(借用証)をプレゼントすることしかできません。さらに、私たちはFitbitのようなスマートバンドと競合し得るほど強力なデバイスを開発するかもしれません。これにより、健康管理をより良く行いつつ、プライバシーを完全に保護できるかもしれません。そのようなデバイスをすぐに手に入れることができると信じています。
Guillaume Verdon:私たちはこれらのトピックについて引き続き議論することになるでしょう。可能であれば、「人工生命の概念の錠剤」をあなたに差し上げたいと考えています。つまり、ネット上の人工生命は、知性のコストを大幅に削減し、新たな経済体制を形成する可能性があります。
過去に中国に製造業を外部委託し、より高度な作業—より簡単で効率的なタスク—に集中したように、未来では多くの認知作業がAI集団に外部委託されるでしょう。最終的に、これらのAIはダイソン・スフィアの周囲で「生活」し、人類社会に奉仕することになるかもしれません。
したがって、私たちは現在、まったく新しい歴史的瞬間を迎えていると考えています。暗号通貨は、人間とAIの間の「信頼の架け橋」または「カップリング層」となる可能性があります。
BlockBeats の公式コミュニティに参加しよう:
Telegram 公式チャンネル:https://t.me/theblockbeats
Telegram 交流グループ:https://t.me/BlockBeats_App
Twitter 公式アカウント:https://twitter.com/BlockBeatsAsia