lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
ホーム
OPRR
速報
深堀り
イベント
もっと見る
資金調達情報
特集
オンチェーン生態系
用語
ポッドキャスト
データ
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%

ウルトラマンは豪邸が襲撃されても恐れることはありません。彼には要塞があります。

この記事を読むのに必要な時間は 16 分
公開ベットAIは成功するだろうと、バックグラウンドでAIが制御を失う可能性に備えて準備される

2016年、サム・オットマンはワイオミング州に地下壕を建設しました。1,200平方メートル、3階建て構造、500キログラムの金、5,000枚のヨウ化カリウム、5トンのフリーズドライ食品、10万発の銃弾。その年、OpenAI はちょうど1周年を迎えました。


10年後、世界で最もパワフルなAI企業のトップは、2週連続で攻撃を受けました。最初に炎瓶、次に銃撃です。本人は自身のブログで、「物語の力」を著しく過小評価したと述べています。彼が言及しているのは他者の物語なのか、自身の物語なのか?


48時間、2回の攻撃


4月10日、午前3時40分、サンフランシスコのチェスナット・ストリート。20歳の男性、ダニエル・モレノ=ガマが火炎瓶をサム・オットマンのアパートの金属製ドアに投げつけました。火が外側のドア周辺で発生し、すぐに逃走しました。約1時間後、同一人物がOpenAIサンフランシスコオフィス近くに現れ、火災を脅かし続け、その後逮捕されました。彼には未遂殺人および放火の罪状がかけられています。


サム・オットマンのサンフランシスコの住居、および放火容疑者の監視映像


2日後、4月12日、午前1時40分、ホンダのセダンがオットマンのロシア山の別荘の脇に停車しました。車内の乗客が窓から住居に向けて銃を乱射しました。監視ビデオにはナンバープレートが記録されており、警察はその後、アマンダ・トム(25歳)とMuhamad Tarik Hussein(23歳)の2人を逮捕しました。住居の捜索で3丁の銃が発見され、2人は過失射撃の罪状がかけられました。


1つの週末、2つの攻撃。


最初の事件の疑わしい男性、ダニエル・モレノ=ガマはAI悲観主義者です。彼はソーシャルメディアで『デューン』からの人間対機械のテーマを引用し、AIのアラインメントの失敗が存亡のリスクをもたらすと論文を執筆し、テクノロジー指導者が「超人類主義」を追求するために「全人類の運命を賭けた」と批判しました。


彼の主張は何ですか?


過去5年間、OpenAIが展開してきたAIストーリーテリングの標準的なアクションの1つは、AGIの「存在リスク」を強調することでした。政府に規制を真剣に受け止めさせるため、投資家にこの賭けがどれほど大きいか理解させるため、そして業界全体にこの競争を見逃すべきではないと認識させるためでした。このフレームワークには機能があり、これによりOpenAIは次の3つを同時に実現しました:最も危険で前衛的、最も責任ある、だから資金を我々に提供すべきだと。


しかし、「これは人類史上最も危険な技術です」という言葉は、技術業界や投資家に止まらないでしょう。それは広がり、特定の人々の間で文字通りの行動命令になるかもしれません。Moreno-Gama は ins で共有した投稿で、「指数関数的進歩と調整の失敗は存亡のリスクと同等です」と記述しています。この論拠の枠組みは、AI セキュリティ研究の主要文献から来ており、その多くは OpenAI の資金提供または支援を受けています。


Daniel Moreno-Gamaのソーシャルメディアアカウント


最初の攻撃の後、オットマンはブログで投稿しました。彼は子供との写真を掲載し、「この写真が次の人が火炎瓶を投げることを止めるのに役立てばいいなと思っています。」と述べました。彼は反対者の「合法的な倫理的立場」を認め、公共の議論において「爆発的な要素が文字通りと比喩的に少ない方がいい」と呼びかけました。


彼はまた、『The New Yorker』の特集記事にも反応しました。その記事は攻撃の数日前に公開され、彼がAIの最高権力者としての信頼性に疑問を投げかけました。彼は、「私は舆論の語りと言葉の力を重く見くびっていました。」と書きました。


二日後、彼の住居は再び銃撃されました。


セキュリティ予算はポーズ、砦は別


この軌跡の始まりは、多くの人が認識しているよりも1年早い時期にさかのぼります。


2024年12月4日、ニューヨーク。UnitedHealthcare の CEO ブライアン・トンプソンがヒルトンホテルの外で銃殺されました。容疑者のルイージ・マンジオーネは、アイビーリーグを卒業し、医療保険業界を非難する手書きの声明を残しました。事件はソーシャルメディアで異例の反応を引き起こしました:多くの一般ユーザーが犯人に同情し、彼をある種の抵抗の象徴として持ち上げました。


その瞬間、一部の扉が開かれました。


トンプソン事件の後、役員の安全保障は「福利待遇」から「生存に必要なもの」へと変わりました。『Fortune』誌が引用した調査データによると、2023年以降、大企業の役員を対象とする人犯罪の攻撃は225%増加しました。S&P 500 構成企業のうち、2025年には33.8%が役員の安全保障支出を財務報告書に記載し、2020年には23.3%でした。安全保障サービスを提供する企業のコストの中央値は13万ドルで、前年比20%増加し、5年で倍増しています。


AI インダストリーは、このトレンドの最新かつ最も注目すべき受信側です。2024 年、トップ10のテクノロジージャイアントの CEO は、セキュリティ支出の総額が 4,500 万ドルを超えました。ザッカーバーグ氏だけで 2,700 万ドル以上であり、Apple、Google などの 4 社の CEO の合計額を上回っています。2025 年の NVIDIA の黄仁勋氏の支出は 350 万ドルで、前年比 59% 増加しました。Google のピチャイ氏は 827 万ドルで、22% 増加しました。


AI インダストリーには、他の業界にはないものがあります。それは、建設者自身さえこの技術が文明を破壊する可能性があると信じていることです。2025 年、ピュー研究所は世界中の 28,333 人の回答者を対象に調査し、AI の発展に興奮している人はわずか 16% であり、懸念を抱いている人は 34% でした。より直感に反する発見は、より教育を受けた人や収入の高い人ほど、AI の制御を失うことに対する懸念が強いということです。最も理解している人ほど、それに対して最も恐れを抱いています。


最近、インディアナポリス市議会議員ロン・ギブソンの自宅が深夜に銃撃され、13発の銃弾が連射され、8歳の息子が銃声で目を覚ました。玄関には手書きのメモが残されており、「データセンターを建設しないでください」と書かれています。FBI が捜査に介入しました。ジョージ・ワシントン大学の過激主義研究プロジェクトの研究員ジョーダン・エイブラムス氏は、データセンターが反テクノロジー、反政府の過激派の攻撃対象になっていると指摘しています。


ロン・ギブソン銃撃事件現場


この恐怖は業界内では秘密ではありませんが、大々的には話されていません。


オルターマンがワイオミング州にその要塞を建設したのは 2016 年でした。その年、OpenAI は設立を宣言したばかりであり、AI が人類にどのように利益をもたらすかを世界中に描いていました。この二つの出来事が同時に起こりました。彼はステージ上で AI が人類の最大の機会であると言い、裏では武装民兵を支援するだけの弾薬を貯蔵していました。


これは合理的な二重の賭けです:公には AI が成功すると賭け、非公には AI が制御を失うと準備しています。


オルターマンのブーメラン


2021 年 2 月 27 日、OpenAI はアメリカ国防総省と契約を締結し、ペンタゴンに ChatGPT を機密防衛ネットワークに展開することを許可し、「任意の合法的目的」で使用できる範囲をカバーしています。同日、オルターマンは Anthropic の AI 軍事利用に対する制限的立場を公然と支持しています。その後、ChatGPT の1日のダウンロード量が 295% 急増し、1つ星評価が 24 時間で 775% 増加しました。QuitGPT 運動による抵抗は、推定 150 万人以上が参加していると言われています。


3月21日、約200人の抗議者がサンフランシスコを行進し、Anthropic、OpenAI、およびxAIにまたがり、これら3社のCEOに先端AIの開発を一時停止することを要求しました。同時に、ロンドンではこれまでに最大規模の反AI行進も発生しました。


オットマンのワイオミングの地下壕と彼が雇ったセキュリティは、外部からの脅威と、彼自身が構築中のものからの2つの異なるリスクに直面しています。 彼はこれら2つのリスクをプライベートで真剣に受け止め、公の場ではそのうちの1つだけを認めています。


最初の攻撃と同じ週に、『New Yorker』誌はオットマンに関する深い記事を掲載しました。記者のRonan FarrowとAndrew Marantzは100人以上の関係者に取材し、中心となる議論は2つの単語に集約されました:信頼不可能です。 記事は、元OpenAI取締役会メンバーの発言を引用し、オットマンを「反社会的人格」「真実に縛られない」と呼びました。 いくつかの元同僚は、彼がAIの安全に関する立場を繰り返し変更し、必要に応じて権力構造を再定義することを述べています。


オットマンはブログ記事で、自身が「対立回避」の傾向があることを認めています。 オットマンは、資金調達と規制のゲームの道具として、「AIが存在するレベルの脅威である」というパブリックナラティブを構築しました。 結果、このツールは彼の手を離れ、一周して彼のドアにぶつかりました。


BlockBeats の公式コミュニティに参加しよう:

Telegram 公式チャンネル:https://t.me/theblockbeats

Telegram 交流グループ:https://t.me/BlockBeats_App

Twitter 公式アカウント:https://twitter.com/BlockBeatsAsia

举报 訂正/通報
ライブラリを選択
新しいライブラリを追加
キャンセル
完了
新しいライブラリを追加
自分のみが閲覧可
公開
保存
訂正/通報
送信