← Flecto

People by WTF · Nikhil Kamath

AIの津波はすでに来ている & 社会はまだ準備ができていない

Dario Amodei(Anthropic CEO)× Nikhil Kamath

1時間8分 2026年2月24日
YouTubeで視聴する ↗
Dario Amodei and Nikhil Kamath in conversation
01

AIの知能は、データ(Data)・計算量(Compute)・モデルサイズ(Model Size)という3つの要素で予測可能なほど決まる——これが、Anthropicが2021年から静かに賭けてきたスケーリング則(scaling law)のレシピだ。

6:26
02

AnthropicはChatGPTが存在する前から動作するAIモデルを持っていたが、リリース競争よりも安全性審査を優先して秘密裏に保留した——アモデイが今もなお擁護する決断だ。

13:27
03

コーディングは廃れゆくスキルだ。AIがあらゆるタスクの汎用実行者になる中で、批判的思考こそが人間に残された最後の優位性である。

50:17
04

AI権力が少数の企業に集中することは深刻な問題だ——そしてアモデイ自身も、それを握っている一人であることを認めている。

31:03
05

インドはClaudeの世界利用国第2位で5.8%を占め、米国の22%に次ぐ。数字は揃っている——あとはインフラが追いつく必要がある。

37:05
06

バイオテクノロジーが次の兆ドル規模の波になる。AIは50年分の医療の進歩を10年に圧縮し、多くの疾患を治癒できる可能性がある。

1:02:40
07

オープンソースAIは制御不能な拡散リスクを生み出す。クローズドモデルは少なくとも一つの安全チョークポイントを維持できる——アモデイが現実的に擁護するトレードオフだ。

56:38
  1. 0:00

    イントロダクション

    バンガロールでニキルが場を設定する。ダリオは生物学者として現れ、AIで最も慎重なビルダーとなった人物だ。

    津波の比喩と科学者の転身

    • Anthropic以前のキャリア軌跡 — アモデイは物理学を学部で修め、UCSFで生物物理学の博士号を取得した生物学者として出発し、スタンフォード医学部でタンパク質質量分析・バイオマーカー研究のポスドクを経て、教授職への道を歩んでいた。しかし生物系の複雑さが人間の知性だけでは解読不可能だという確信が、その道を変えた。
    • AlexNetの瞬間が触媒に — 2012年頃、初期ニューラルネットを目撃したアモデイは、脳と構造原理を共有しながらも遥かにスケールできるAIこそ、生物学の難解さを解く欠けたピースになり得ると結論付けた。この気づきが彼をアカデミアからBaiduのAndrew Ng、Google、そして設立直後のOpenAIへと引き寄せた。
    • 創業確信:安全性は能力と共に進化しなければならない — OpenAIを離れた動機は二つの信念から生まれた。(1)スケーリング則は実在し、大多数の人々がその認識に危険なほど遅れていた。(2)史上最強のモデルを構築する組織は、安全性を脚注ではなく第一優先事項として扱う必要があった。アモデイは後者の信念が十分に共有されていないと感じていた。
    • 「津波」というフレーミングが核心命題 — 「Claudeは驚くほど私を知っている」というニキルの冒頭の問いかけを受け、アモデイは中心的逆説を言語化する。モデルがあらゆる認知タスクで人間レベルの知能に達するまで数週間か数ヶ月しかない。にもかかわらず、社会の議論はそれを遠い投機的脅威として扱い、「ただの目の錯覚だ」と合理化する声が後を絶たない。
    • インドのフレーミング:市場ではなくパートナー — アモデイは、ユーザーを獲得する「消費者企業として」やって来る競合他社と、Anthropicのインドへの姿勢を明確に区別する。AnthropicはインドをAI開発における協力パートナーと位置づけており、実際の利用データと構造的機会というレンズを通してそのフレーミングがのちに展開される。
    Introduction segment
  2. 6:13

    スケーリング則をわかりやすく説明

    そのレシピ:データ + 計算量 + モデルサイズ = 知能。シンプルな経験則がどのようにAI開発の行方を変えたか。

    スケーリング則:化学反応としての知能

    • 化学反応のアナロジーがコアモデル — アモデイは燃焼の比喩でスケーリング則を説明する。火が燃料・酸素・熱を一定の割合で必要とするように、AI知能もデータ・計算量(Compute)・モデルサイズのバランスを必要とする。「DATA(A) + COMPUTE(B) + MODEL SIZE(C) → INTELLIGENCE」という図解オーバーレイが、専門知識のない視聴者にもこの公式を伝える。一つの成分が欠ければ反応は止まり、適切な割合で供給すれば知能は予測可能な出力となる。
    • GPT-2が転換点(2019年) — アモデイは2019年、GPT-2がスケーリング則の「最初のきらめき」を初めて示した瞬間を、軌跡が本物だと理解した時点として特定する。OpenAIのチームは社内の大きな懐疑論に抗してリーダーシップにそのケースを訴え続け、その主張が業界の方向性を定めることになった。
    • 検索から合成へ——質的な飛躍 — 5年前、コンピューターはウェブ上に存在するテキストを取得していた。今日、Claudeはオンラインにまったく答えが存在しない新奇な仮定の質問——例えば「猿ではなくアシカがジャグリングしたら」——に対して、先行文書なしで推論して答えられる。アモデイはこれを程度の差ではなく種類の違いとして位置づける。
    • 知能の操作的定義 — ニキルが定義を求めると、アモデイは実証的に答える。知能とは、テキストや画像で表現できる認知タスク——翻訳、コード作成、エッセイ執筆、動画分析、物語の読解——での性能によって測られる。この定義は「人間レベル」を測るベンチマークを設定する上で重要な意味を持つ。
    • RLはエンジンではなく微小な擾乱 — 強化学習などの技術は純粋なスケーリングと比べて「それほど大したものではない」とアモデイは明言する。主要な要因は単純に成分を適切な割合で追加することだ——この発言は、生のスケールよりアーキテクチャの新規性を重視するAI研究コミュニティへの挑発的な含意を持つ。
    Scaling laws diagram
  3. 13:27

    信頼、謙虚さ、そして企業の動機

    なぜAnthropicはリリース前にモデルを数ヶ月間保留したのか。Anthropicを法的にユニークにするガバナンス構造——Long-Term Benefit Trust(長期利益信託)——について。

    ガバナンス機構と規制の囲い込み批判

    • Long-Term Benefit Trustという構造的ファイアウォール — アモデイはAnthropicの異例のガバナンスを開示する。「財政的に利害関係のない」個人で構成されるLong-Term Benefit Trust(長期利益信託)がAnthropicの取締役会の過半数を任命する。LTBTの記事オーバーレイが、これがPR文句ではなく正式な仕組みであることを裏付ける——短期的な利益動機が安全優先事項を上書きするのを構造的に困難にする試みだ。
    • 規制の囲い込み批判への具体的な反論 — ニキルはアモデイに規制囲い込みの仮説を突きつける。大手AI企業がAI規制を提唱するのは、自社の地位を守る参入障壁を構築しているのかもしれない、と。アモデイの反論は正確だ。Anthropicが支持したカリフォルニア州SB 53は、年間売上5億ドル未満の企業すべてを免除し、コンプライアンス負担を担う十分なリソースを持つ一握りの組織だけを対象にしている。これは既存企業を制約するために設計されており、彼らを守るためではない。
    • 「言葉ではなく行動を見よ」 — アモデイは信頼性の検証基準を言葉から行動へと再定義する。Reuters/Bloombergのオーバーレイは、AI規制を支持する政治団体へのAnthropicの2000万ドル寄付を示す。商業的コストを伴うルールを提唱すること——「商業的に足を引っ張る」とアモデイ自身が認める——は、規制囲い込みの構造的対極だと彼は主張する。
    • 解釈可能性という科学的安全への賭け — アモデイは、脳のMRIのようにニューラルネットの内部を見る能力としての解釈可能性(interpretability)の進歩を、最も心強い成果の一つとして語る。Anthropicはすでに特定の概念に対応するニューロンや詩の韻のパターンを追跡する回路を特定しており、AI認知が永続的に不透明なままではなく解読可能になりつつあることを示唆する。
    • 社会的意識のギャップという持続的な構造的懸念 — アモデイは技術的な安全進歩に「かなり前向き」な一方、公共の意識と政府の行動が追いつけていない点に「少し失望している」と述べる。有権者が緊急性を感じていないため政府は行動せず、「できる限り速く加速せよ」というイデオロギーがその空白を積極的に埋めている。
    Long-Term Benefit Trust
  4. 22:44

    Claudeを個人的に使う、AIが自分を知ること

    アモデイの日常的なClaude利用について。AIが深くコンテキストを把握する夢——そしてそれが提起するプライバシーの問い。

    個人ツールとしてのClaudeと縦断的AIメモリという夢

    • 遠くにいる経営者ではなく日々の実践者としてのアモデイ — 彼は調査・草稿作成・戦略的思考のためにClaudeを個人的に使用しており、製品指標だけでなくフロンティアでの実体験からAI能力への直感を持つ実践者CEOとして自らを位置づける。これがAIが今できること・まだできないことについての彼の主張に現実の根拠を与える。
    • 「私のことをよく知っている」という現象が次のデザインパラダイムへ — 「Claudeはときに驚くほど私のことを知っているように見える」というニキルの冒頭の観察は、アモデイの深い野心に繋がる。数ヶ月から数年にわたって人の目標・履歴・好み・推論パターンの縦断的コンテキストを蓄積し、あらゆる領域で専門家レベルの知識を持つ「優秀な友人」として機能するAIだ。
    • パーソナライズされたAIへの公平性の論拠 — アモデイが最も明示的に平等主義的に語る主張がある。富裕層は常に優秀なパーソナライズされたアドバイザー——具体的な状況を知る弁護士・医師・ファイナンシャルプランナー——を利用できた。AIはこの非対称性を是正可能にする。コンテキストを把握するClaudeにアクセスできる第一世代の学生は、かつて特権階級だけが持てたものを手にする。同時にこれは、永続的メモリの設計を商品の磨き込みではなく社会正義の問題にする。
    • パーソナライズは約束であり同時にプライバシーの問い — AIが縦断的コンテキストを蓄積するほど、有用になると同時に監視装置的にもなる。アモデイはこの緊張をすっかり解決せず、デリケートな領域を横断する永続的メモリがデータの所有権と管理についての構造的な問いを提起することを認める。現在のどのAIアーキテクチャもその問いに完全には答えていない。
    • あなたに適応するAI vs. あなたを平準化するAI — このセクションに貫かれる構造的対比がある。汎用的な答えを検索する旧来のパラダイムと、あなたの具体的なコンテキストについて推論し、暗黙の好みを推察し、時間とともにあなたのモデルを更新するAI。後者は根本的に異なるアーキテクチャ——そしてユーザーとシステムの根本的に異なる関係——を必要とする。
    Machines of Loving Grace essay
  5. 31:03

    自分たちのシステムを批判する富裕層

    テック億万長者が権力集中を警告しながら自ら蓄積するという矛盾。アモデイはその問いを避けない。

    億万長者の批評家という逆説——体制内部からの批判

    • 構造的矛盾を直接名指し — ニキルはインタビューで最も鋭い問いを投げかける。アモデイやサム・アルトマンのような人物は、AIが生み出す権力の集中を批判しながら、その主要な設計者であり受益者でもある。問いはアモデイが個人的に偽善的かどうかではなく、既存のシステム内部から変革的なテクノロジーを構築するすべての人にとって、その矛盾が構造的に避けられないのかどうかだ。
    • アモデイの自己認識した不快感 — 彼は率直に認める。「ここで起きている権力集中の程度に、少なくともある程度不快感を覚えている。ほぼ一夜にして、ほぼ偶然に起きたと言えるだろう。」これは地位を守る創業者の言葉ではなく、自分の仕事がもたらすシステム的な影響について真摯に不確かさを感じている科学者出身のCEOの言葉だ——インタビューで最も知的に誠実な瞬間を生む稀な告白。
    • 「権力のバランスを守る」というフレーミングが防衛的な目標 — Anthropicが不平等を是正していると主張するのではなく、アモデイは目標を防衛的に描写する。いかなる単一の主体も——企業であれ政府であれAnthropicそれ自体であれ——AI経由で前例のない支配を実現できないようにすることだ。彼はこれを明示的に「このテクノロジーの自然な流れに逆らう」働きと呼び、AIの構造的傾向が中央集権化に向かうことを認める。
    • AIスタックという分散した権力マップ — アモデイは半導体製造装置・チップメーカー・モデルメーカー・アプリ開発者・政府・市民社会というバリューチェーンを描き、関連性はすでに多くの主体に分散していると主張する。彼の希望はAnthropicが支配的であり続けることではなく、いかなる単一ノードも支配しないことだ。Anthropicの一時的な中心性を過渡期に必要なものとして暗黙に受け入れる多元主義の議論だ。
    • OpenAIを変えるのではなく離れた理由としての創業論理 — 「なぜOpenAIを修正しようとしなかったのか」という問いへの哲学的回答が創業の精神を露わにする。「他人のビジョンで議論するな。自分で行動せよ——そうすれば自分の間違いに責任を持つ。」これは権力集中への不快感が後付けの合理化ではなく、元々の動機だったことを示唆する。
    Conversation frame — power concentration
  6. 37:05

    インドの役割とITパートナーシップ

    インドはClaude利用国で世界第2位。ITアウトソーシングからAIネイティブ企業への移行。そして実際の機会がどこにあるか。

    Claude第2位の市場インド——構造的転換点として

    • インドがClaudeの世界第2位のユーザーベース — 棒グラフのオーバーレイがこれを具体化する。インドはClaude.aiのユーザーの5.8%を占め、米国の22%に次ぐ第2位。日本・英国・韓国の各3.1%を上回る。これはインドに関する議論を願望から実証的な裏付けへと変換する——パートナーシップの言葉は実際のユーザー行動によって裏付けられている。
    • パートナー対消費者市場という戦略的区別 — アモデイは、収益を得るために「消費者企業として」インドに参入する競合他社との明確なコントラストを描く。Anthropicのポジショニングはテクノロジーパートナーとして——完成したAI製品を単に売るのではなく、インドの人材・企業・機関と共に構築することを目指す。このフレーミングはインドを目的地市場ではなく共同創造者として位置づける。
    • 転換点に立つITサービス産業 — 会話はインドの大規模ITアウトソーシングセクターが直面する構造的混乱に暗黙的に触れる。AIはインドのIT輸出経済を作ったまさにその認知的・定型的タスク——コード作成・テスト・データ入力・文書作成——を自動化しつつある。戦略的問いは、インド企業がAIに既存の収益基盤を商品化される速度よりも早く、AIネイティブ製品へとバリューチェーンを上れるかだ。
    • NYTの放射線科医の見出しが制度的否定のパターンとして — フレームオーバーレイは「AI放射線科医はすぐには来ない」という見出しを示す。アモデイはこれを、展開の複雑さと制度的慣性を引用してAIが専門職を置き換えないと主張する議論の典型例として使う。暗黙の反論:同じ論理がエッセイ作成・コーディング・画像生成についても一貫して間違ってきた。
    • グローバルな開発軌跡でのリスク共有としてのパートナーシップ — アモデイのインドへの「異なる見方」は究極的に現実的だ。英語リテラシーが高く、STEMの文化が根付き、国内AI野心が育つ14億人の国は、AIツールで成功することがAnthropicにとって商業的に良いだけでなく、世界規模でAI開発が好ましい方向に進む確率を高める戦略的パートナーだ。
    Top 5 Claude countries bar chart
  7. 44:15

    AIはあらゆる面で人間を超えるのか

    アモデイの答え:おそらくそうなる、そしてほとんどの人が予想するより早く。それが人間の目的やアイデンティティに何を意味するか。

    AIはあらゆる面で人間を超えるのか——人間の目的という問い

    • 「おそらくそうで、ほとんどの人が思うより早い」 — アモデイの答えは留保がない。モデルはすでに多くの認知的次元で人間レベルに達しているか近く、圧縮された時間軸内に広く人間のパフォーマンスを超えると確信している。重要な限定は「認知的」——AIが依然として大きく遅れている身体的具現化や現実世界での操作ではなく、知的労働の領域についてだ。
    • 放射線科医のケースがあらゆる専門知識労働の代理として — NYTの見出しが否定パターンの典型事例として機能する。アモデイの暗黙の論拠:AIにはエッセイ作成・ソフトウェアコーディング・動画分析ができないと言った同じ論理が、すべてのマイルストーンで体系的に間違ってきた。放射線科医のケースは独自ではない——繰り返すエラーの最新インスタンスに過ぎない。準備を怠ることは回避可能な社会的損害を生む。
    • 人間の優位性はタスク実行ではなく判断 — アモデイのフレーミングで人間に独自に残るのは速度でも知識でもなく、目標を設定し、正しい問いを立て、AIの出力が本当に人間の価値観に奉仕するかを評価する能力だ。脅威はAIが人間の意思決定を置き換えることではなく、人間がそれを行使しなくなり、AI豊富な世界で人間の主体性を正当化するまさにその能力が萎縮することだ。
    • 「一万人のアインシュタイン」思考実験 — アモデイは、AIが最優秀の人間科学者レベルの研究協力者として機能する未来を描く——数千の実験を並行して走らせ、超人的スケールで文献を統合し、仮説を継続的に生成・検証する。この経済的・科学的含意は、いかなる機関の計画にも政府の政策枠組みにも、まだ織り込まれていない。
    • 知能の豊かさの世界での目的とアイデンティティ — このセクションが提起する最も深い問いは経済的ではなく実存的だ。AIが人間が認知的に行うすべてをできるなら、人間の目的・尊厳・意味の根拠は何か。アモデイは明確な解決策を提示せず——文明がこれほどの速度・規模でこの問いに直面したことは一度もないと認める。
    NYT AI Radiologist article
  8. 50:17

    若いインド人へのキャリアアドバイス

    AIが自動化するスキルを最適化しないこと。AIシステムと競争するのではなく、判断力・創造性・AIを指揮する能力を構築せよ。

    若いインド人へのキャリアアドバイス:AIが商品化できないものに投資せよ

    • 核心的処方:タスクスキルではなく判断力を構築せよ — アモデイのキャリアアドバイスは構造的にシンプルだ。AIが商品化するスキル(定型的なコーディング・データ処理・テンプレート作成)に大きく投資しないこと。代わりに、AIを指揮・評価・活用するのに有効な能力——深い分野の知識・批判的思考・AIが間違える境界で作業する快適さ——を構築すること。
    • コーディングは必要だが十分ではなくなった — 特に鋭い主張だ。短い時間軸内に、コードを書くことはAIが自動的に行うテーブルステークスになる。エンジニアを差別化するのはコードを書けるかどうかではなく、スケールでAI生成コードを仕様化・レビュー・デバッグするのに十分なほどシステムを深く理解しているかどうかだ。スキルのピラミッドが逆転しつつある。コードについての判断がコードを書く能力より価値を持つようになる。
    • 「優秀な友人」へのアクセスが教育の平等化装置として — 非エリート層のインドの学生にとって、高品質なAI家庭教師・アドバイザーへのアクセスは真の平等化メカニズムを意味する。ボトルネックはもはや専門知識へのアクセスではない——良い問いを立て、答えを評価する能力だ。これは教育投資を手続き的知識よりも認識論・メタ認知・分野の深さへと再方向付けする。
    • 分野別の自動化露出マッピング — アモデイは自動化への露出を暗黙にマッピングする。ITアウトソーシング・金融分析・法的調査・医療文書作成は露出が高い。身体的具現化・政治的判断・継続的な人間関係を必要とする役割は露出が低い。キャリアを選ぶ若いインド人はこの分布を重視すべきだ——AIシステムに置き換えられる側ではなくそれを指揮する立場を好んで選ぶべきだ。
    • 予測への謙虚さがメタレッスン — アモデイはAIが「できない」仕事についての予測の実績が一貫して貧しいと指摘して締める。実践的な含意:「私の仕事は自動化されるか?」と問うのではなく、より良い問いは「AIが何をできても関係なく、積み重なる能力を構築しているか?」だ——特定の職種カテゴリーの生存にベットを置くのではなく、適応力を重視するバイアスだ。
    Career advice segment
  9. 56:38

    オープンソース対クローズドAIモデル

    クローズドモデルの安全チョークポイント論。なぜアモデイはオープンソースの拡散が取り戻せないリスクを生み出すと考えるか。

    オープンソース対クローズドモデル:安全チョークポイントの論拠

    • 制御された開発のためのチョークポイント論拠 — フロンティアモデルの完全オープンソース化に反対するアモデイの論拠は経済的ではなく構造的な安全性に基づく。クローズドモデルは、開発者が危険な能力をデプロイ後も制約・監視・更新できるチョークポイントを維持することを可能にする。フロンティアモデルがオープンソース化されると、そのチョークポイントは永続的に消滅し——いかなる後続の決定もそれを取り戻せない。
    • 不可逆性の非対称性が論理の核心的構造 — 論理は非対称だ。クローズドな開発が不要だったと判明した場合、社会はいくらかの効率性と競争多様性を失う——回収可能なコストだ。フロンティアでのオープン開発が壊滅的な悪用(生物兵器設計・大規模な自律的サイバー攻撃・政治的操作システム)を可能にした場合、取り消しはない。アモデイは不可逆的な害を回収可能な非効率よりも構造的に重く扱うべきだと主張する。
    • フロンティア以下のオープンソースは明示的に安全性と両立 — アモデイは注意深く区別する。真に危険になる能力閾値以下のモデルのオープンソース化は支持している。異議は特に、安全特性が十分に理解され増殖を管理するガバナンス枠組みが存在する前に、最も有能なフロンティアモデル——最高のアップサイドと最高のリスクを持つもの——をリリースすることに向けられている。
    • 競争ダイナミクスの圧力点 — ニキルは明白な反論を提起する。Anthropicがクローズドを維持し他社がオープンソース化すれば、安全重視のプレイヤーは市場シェアと影響力を失い、より注意の少ない主体に地盤を明け渡す可能性がある。アモデイはこれを現実の緊張として認め——2000万ドルの政治献金と構造的に類似した——商業的利益と安全性が対立するとき安全性を真剣に取るための計算されたコストとして位置づける。
    • 欠けているガバナンスインフラとしての規制枠組み — 根底にある論拠は、安全なオープンリリースと安全でないオープンリリースを区別できる医薬品規制に類似した認証・監査・責任枠組みが存在しないことだ。それが存在するまで、予防的なデフォルトは最大限の増殖より制御の維持を優先すべきだ——制約を提唱する側に商業的コストがかかっても。
    Open source debate
  10. 1:02:40

    次の大きな賭けとしてのバイオテック

    生物学に適用されるAI:疾患の治癒、老化の逆転、何十年分もの医療進歩の圧縮。これがダリオが生物学者として出発した理由だ。

    最も賭け金の高い応用としてのバイオテック——医療進歩の数十年を圧縮する

    • 生物学はアモデイの最も根本的な動機 — インタビューは始まりの場所に戻って締める。アモデイの生物物理学の博士号は疾患を治癒したいという欲求から生まれたが、生物系の圧倒的な複雑さに阻まれた。タンパク質バイオマーカーの質量分析研究は、遺伝子と細胞の結果の間に翻訳後修飾・スプライシング・タンパク質複合体形成の層がどれほど多く存在するかを明らかにした——「人間が理解するには複雑すぎる」と彼が言う複雑さだ。
    • 「圧縮された数十年」論 — アモデイの最も野心的な主張:AIが加速する生物学的研究は、50〜100年の医療進歩を5〜10年に圧縮できる。これは治療薬開発・臨床試験・規制承認の具体的な時間軸が、生物系の完全な複雑さを超人的速度で仮説を生成・検証するAIの能力によって根本的に短縮されることを意味する。
    • 具体的な標的:がん・アルツハイマー、そして老化そのもの — 彼はこれらを願望的な終着点としてではなく、AIがすでに意味ある研究シグナルを生み出している領域として挙げる。より広い要点は、これらの疾患が世界中で数億人に影響を与え、その治療の時間軸が現在、人間の科学的作業のペースにボトルネックされているということだ——AIの能力が予測通りスケールし続ければ取り除けるボトルネックだ。
    • バイオテックでデュアルユース問題が最も鮮明に — バイオテックはAIの危険性が最も直感的な分野でもある。治療薬の設計を加速する同じ能力が、敵対的な手に渡れば生物兵器の設計を加速しかねない。アモデイが安全研究に注力するのは、バイオテックでの誤整合の結果が最も壊滅的で最も回復不可能であるという信念に一部動機付けられている——それを最高価値かつ最高賭け金のAI応用を同時に実現する。
    • 生物学者からAI安全のパイオニアへの一本の糸 — インタビューの閉じるアークは構造的に完結する。アモデイは疾患を治癒したい科学者として始まり、生物学の複雑さが人間の認知能力を超えるためにAIに転向し、元々の生物学的ミッションが大規模に実現可能になろうとしている会社を構築するに至った。そして彼が防ごうとするリスクはまさにその進歩を取り消すことが最も可能なものだ。
    Biotech segment
Scaling Laws diagram: DATA + COMPUTE + MODEL SIZE → INTELLIGENCE 図解 6:26

スケーリング則:データ(DATA) + 計算量(COMPUTE) + モデルサイズ(MODEL SIZE) → 知能(INTELLIGENCE)

Nature Biotechnology 2012 paper by Dario Amodei 根拠 2:08

Anthropic設立前:ダリオの2012年Nature Biotech論文(質量分析・プロテオミクス)

Bar chart of top 5 Claude.ai countries 図解 44:57

Claude.ai利用国トップ5の棒グラフ——インドが世界第2位

Reuters article about Anthropic $20M donation 根拠 15:32

Anthropicが米国AI規制支持団体に2000万ドルを拠出——資本で政策を後押し

California SB 53 AI safety law 根拠 16:36

カリフォルニア州SB 53(2025年):AI企業に安全計画の公表を義務付け

Machines of Loving Grace essay overlay 根拠 17:41

「慈愛に満ちた機械(Machines of Loving Grace)」——アモデイの有益なAIへのビジョン

Long-Term Benefit Trust governance article 根拠 12:18

Long-Term Benefit Trust(長期利益信託):Anthropicの異例のガバナンス構造

NYT AI Radiologist article overlay 根拠 42:52

NYT:「あなたのAI放射線科医はすぐには来ない」——現実の確認

Dario Amodei and Nikhil Kamath in conversation, Bangalore 文脈 3:45

バンガロールでの対談:Dario AmodeiとNikhil Kamath

YouTube自動字幕より・英語

Transcript data available in transcript_segments.json