マサチューセッツ工科大学(MIT)の経済学者 Christian Catalini が Ryan と David の番組に登場し、新しい論文『汎用人工知能のためのいくつかの簡単な経済学』を深掘りして解説した。同論文は、AI の世界で希少な資源ではなくなるのは「知能」ではなく「検証」である、つまり AI の出力が正しいかどうかを人間がチェックし、判断し、確かめる能力だと指摘している。
Christian は、各産業を作り替える 2 つのコスト曲線(自動化コストと検証コスト)について詳しく述べ、入門レベルの職がまず消えていく理由や、最先端の専門家でさえも知らぬ間に後継者を育ててしまう理由(「コーダーの呪い」)を説明した。さらに、移行の過程で保持される 3 種類の役割――取締役、意味創造者、責任引受人――も描写した。
PANews が対談の要点を整理した。
司会者:多くの視聴者が私と同じように、AI についてある種の恐怖を感じているのではないかと思います。あなたは、人々がなぜ AI を心配するのだと思いますか?その不安は妥当でしょうか?
司会者:たとえば、私が X 上で、イスラエルがミサイルで攻撃されたという動画を見たとします。でもそれが AI 生成だと分かった。私は脳で問題を見抜き、さらにリプロンプトして、より良い動画を作れる。これが私の「検証能力」だと言えますか?
Christian:とても良い例です。さらに一歩進むと、私たちはすぐに、ほとんどの人にとってその動画が現実と区別しにくい世界にいる可能性があります。次の段階では、軍事の専門家が炎の動きが不自然だと気づくでしょう。さらに次の段階では、軍事の専門家でさえ一目では判別できず、AI が物理原理を分析してシミュレーションテストを行う必要が出ます。最終的にはまったく区別できなくなるかもしれません。そのとき私たちは、真正性を確認するために暗号学ベースのインフラに頼らざるを得なくなる。医学の分野でも同様です。境界例は最終的に、トップクラスの放射線科医が 20 年の経験と、患者ごとの背景理解を用いて AI の判断を覆す必要が出てきます。これが、私たちが注目している最後の薄い「フィルタリング層」です。こうしたことを行うと、大量の時間が解放されます。だからこれは良い面です。より少ないリソースで、より多くのことができる。高価なもののコストは下がります。社会全体が、そうしたものをより多く消費するでしょう。私はこれを良いニュースだと思います。
司会者:でもあなたの例だと、いまは彼が検証していますが、すぐに彼は検証できなくなり、軍の指揮官が必要になり、最後には指揮官ですら検証できなくなって AI に頼らざるを得ない。これは、「検証」が最初は価値があったが、すぐに AI によって自動化されてしまうことを示していませんか?つまり「検証」それ自体も安全ではない?
Christian:そうですね。私たちは論文の中でこれを「コーダーの呪い」と呼んでいます。検証という非常に合理的な行為そのものが、最前線の技術を前進させ、経験データとして形式化してしまう。私たちは止められません。なぜなら、すべての弁護士や実務家が AI を使おうとするからです。検証は確かに、萎んでいくフロンティアの拠点になっています。
Christian:人を惹きつける注意を集め、本当に新しい笑い話を作るのは、極めて難しい創造的な仕事です。これまで一度も測定されたことがないものを壊しにいく必要がある。私たちは長い生存と死闘の中で、未知の環境に対処する極めて強い能力を進化させてきました。そうした仕事をする人は「意味創造者」と呼ばれます。たとえばアートや文化の領域では、「良いもの」とは何かは人間の合意に依存します。たとえ AI エージェントを使うとしても、「意図」を設定しなければなりません。
Christian:社会は必要になれば、安定を保つために「ボタンを押す」仕事を再創造するでしょう。でもこうした仕事に従事している人の多くは、本当はもっとできる能力があります。ただ過去は環境によって制約されていました。肉体労働が不要になったとき、人々はジムで鍛えるものを発明しました。今、知的労働が解放される局面では、人々は挑戦感を得るために、さまざまな副業やクリエイター経済を発展させるでしょう。だからこそ、私は「無条件基本所得(UBI)」が完全に間違っていると思います。人は意味や自己実現への動機が必要です。加えて、仮に今あなたの仕事の大部分が自動化によって置き換えられていても、あなたが AI という超強力なツールをうまく使えば、たった入社したばかりの初級社員でも、以前はチームの産出だったものを爆発的に出せるようになります。
マサチューセッツ工科大学:AIの終末論を恐れる必要はない。検証能力は希少資源である
出典:Bankless ポッドキャスト;編集:Felix, PANews
マサチューセッツ工科大学(MIT)の経済学者 Christian Catalini が Ryan と David の番組に登場し、新しい論文『汎用人工知能のためのいくつかの簡単な経済学』を深掘りして解説した。同論文は、AI の世界で希少な資源ではなくなるのは「知能」ではなく「検証」である、つまり AI の出力が正しいかどうかを人間がチェックし、判断し、確かめる能力だと指摘している。
Christian は、各産業を作り替える 2 つのコスト曲線(自動化コストと検証コスト)について詳しく述べ、入門レベルの職がまず消えていく理由や、最先端の専門家でさえも知らぬ間に後継者を育ててしまう理由(「コーダーの呪い」)を説明した。さらに、移行の過程で保持される 3 種類の役割――取締役、意味創造者、責任引受人――も描写した。
PANews が対談の要点を整理した。
司会者:多くの視聴者が私と同じように、AI についてある種の恐怖を感じているのではないかと思います。あなたは、人々がなぜ AI を心配するのだと思いますか?その不安は妥当でしょうか?
Christian:私たちはみな同じ気持ちです。これは、速くて変革的な変化の時期で、コードに近いほど、あなたはこの加速をより早く目撃することになるかもしれません。ここ数か月で、この指数関数的な成長は本当に現実味を帯びてきました。この技術は、多くの人が「もっと長い時間が必要だ」と思っていたことを実現してしまう。そう感じているのは、私たち全員が何とか対処しようとしているからです。でも私は「終末論」は間違っていると思います。人々は、これらのツールがもたらす可能性を過小評価しがちです。ええ、非常に困難な移行期間はやってきます。仕事の変化のスピードは、歴史上前例のないものになるでしょう。それでも、もしこの技術の最大の特徴を使い、投資していくなら、長期的には基本的に追い風です。途中でいろいろ大変なことはありますが。経済学では仕事を「タスクの集合」として捉えます。いくつかのタスクは自動化される――これは良いニュースです。ただし鍵は、自分をどう再教育して最前線を維持するかです。
司会者:誰が最初に影響を受けると思いますか?
Christian:とても良い質問ですね。私にはいろいろな考えがあります。まず「コードに最も近い人が最初に影響を受ける」と言うとき、それは「この技術がどれほど強力かを最初に実感する」という意味です。「ジェヴォンズのパラドックス」が示すように、何かが効率化すると、むしろ私たちはそれをより多く消費します。たとえば、より多くのソフトウェアを書いてしまう。私は、プログラミングは多くの他の職業と同じように分岐が起きると思っていて、論文ではそれを「消えゆく初級ループ」と呼んでいます。もしあなたが初級者で、優れた製品と平凡な製品を見分けるための「暗黙の知識」をまだ獲得していないなら、AI はあらゆる領域であなたをかなりうまく代替できます。
今では誰でも、かなり優秀なマーケターや初級プログラマー、あるいは大半の状況に対応してくれる弁護士を容易に手に入れられます。あとは最後の段階で、トップの弁護士に最終的な検証をしてもらうだけです。逆に言えば、たとえトップの専門家でも、AI を導入する過程で、意図せずともラベル、情報、数字の痕跡を作ってしまいがちで、その結果として自分自身の仕事が自動化されるきっかけになってしまいます。トップの研究所は、金融などの分野のトップ人材を雇い、評価基準を作らせ、その専門知識を大規模モデルに統合しています。だから私は、単一の仕事が 100% 安全ということはないと思います。ロボットによる製造能力に限界があるとしても、肉体労働ですら、報酬モデルは今後数年で大きく飛躍するでしょう。画面の前で起きることはすべて追跡でき、複製でき、学習できる。各職業で重要なのは考えることです。もし可能な限り仕事を AI に委託したら、私はどこで価値を付加できるのか?
実際、人々が「センス」や「判断」に関して抱く「自己慰め」には多くのものがあります。それらはとても曖昧です。だから論文ではこう言っています。センスや良し悪しの判断など存在せず、「測れる」と「測れない」の違いだけがある、と。すでに測定されているなら、機械はそれを複製できる。測定されず、あなたの頭の中の重みとしてしか埋め込まれていないもの――たとえば、トップのデザイナーが 1 万時間以上の経験を積み、どれを出すべきでどれを出すべきでないかを決める――それが、私たちの言う「検証」です。すべての検証とは、この最後の一手です。AI エージェントがプロダクトを作り、あなたが意思決定者として、それが市場投入に耐える基準を満たしているかを判断する。機械がより良いデータを手に入れるほど、物事は自動化されます。しかし未知の領域、あるいはそもそもデータが存在しない場所に関しては、この部分は今後数年にわたり人間の領域に残るでしょう。
司会者:これはとても深い洞察です。でも私は、エンジニアが自分の仕事を自動化するのは自然だとも思っています。どの業界も同じように影響を受けるのでしょうか?
Christian:変化はまだらである、という十分な証拠があります。こう考えることができます。その仕事は、社会が根本的に必要としていない何かを「包装」するものではないか?たとえば一般的なコンサルティングです。それが主に、広く入手可能な情報を別の形に再包装して、抽出して、要約しているだけなら、当然リスクがあります。でも、希少な領域の専門知識を持ち込むのなら、あるいは政治的な理由でコンサルタントを雇う必要があるのなら、それらは生き残ります。自分に問いかけてください。その職が儲かるのは、複雑な問題を解決しているからなのか。それとも、人為的なボトルネックが存在するからだけなのか。
司会者:そもそも「検証」とは何を意味しますか?私には自分の 1 日の仕事を、どれが認知作業で、どれが検証作業なのかに分解するのが難しいです。
Christian:エージェントはネットや書籍から学び、測り、それらがより安価でスケールするからです。つまり、測定可能な部分は置き換えられます。でもエージェントがまだ知らないものがあります。あなたの脳の中にある固有のニューラルネットワークの重みです。これは、自分自身の経験と苦闘を通じて得たものです。だからこそあなたはトップの専門家になります。たとえば初期の暗号資産の参加者の多くは、アルゼンチンやベネズエラなど出身地がさまざまですが、悪性のインフレを実際に経験しています。彼らの資産に対する反応はまったく違います。この内在する固有の測り方こそが、巨大な優位性です。
検証とは何か?それは、あなた自身が世界に対して持つ測定基準と、エージェントが持つ基準との差です。トップの編集者なら、どの記事が共感を呼ぶかを正確に知っている。あるいはトップの CTO なら、AI が生成した莫大なコードベースを前にして、決定的な境界部分のどれを人間が直接チェックしなければならないかを正確に知っています。そこはまだ機械が測定できない領域だからです。
司会者:たとえば、私が X 上で、イスラエルがミサイルで攻撃されたという動画を見たとします。でもそれが AI 生成だと分かった。私は脳で問題を見抜き、さらにリプロンプトして、より良い動画を作れる。これが私の「検証能力」だと言えますか?
Christian:とても良い例です。さらに一歩進むと、私たちはすぐに、ほとんどの人にとってその動画が現実と区別しにくい世界にいる可能性があります。次の段階では、軍事の専門家が炎の動きが不自然だと気づくでしょう。さらに次の段階では、軍事の専門家でさえ一目では判別できず、AI が物理原理を分析してシミュレーションテストを行う必要が出ます。最終的にはまったく区別できなくなるかもしれません。そのとき私たちは、真正性を確認するために暗号学ベースのインフラに頼らざるを得なくなる。医学の分野でも同様です。境界例は最終的に、トップクラスの放射線科医が 20 年の経験と、患者ごとの背景理解を用いて AI の判断を覆す必要が出てきます。これが、私たちが注目している最後の薄い「フィルタリング層」です。こうしたことを行うと、大量の時間が解放されます。だからこれは良い面です。より少ないリソースで、より多くのことができる。高価なもののコストは下がります。社会全体が、そうしたものをより多く消費するでしょう。私はこれを良いニュースだと思います。
司会者:でもあなたの例だと、いまは彼が検証していますが、すぐに彼は検証できなくなり、軍の指揮官が必要になり、最後には指揮官ですら検証できなくなって AI に頼らざるを得ない。これは、「検証」が最初は価値があったが、すぐに AI によって自動化されてしまうことを示していませんか?つまり「検証」それ自体も安全ではない?
Christian:そうですね。私たちは論文の中でこれを「コーダーの呪い」と呼んでいます。検証という非常に合理的な行為そのものが、最前線の技術を前進させ、経験データとして形式化してしまう。私たちは止められません。なぜなら、すべての弁護士や実務家が AI を使おうとするからです。検証は確かに、萎んでいくフロンティアの拠点になっています。
司会者:最後の検証を担う領域まで縮小していくなら、不安がなくなるのはいつですか?
Christian:まず、そもそも設計上「測れない」ものがあります。たとえば所謂「地位ゲーム」や、人間が意味を与えるものです。こうした領域は機械に侵食されません。というのも、その特徴が、人間同士の協調的な合意に関わるからです。暗号資産も、ある意味で同じです。重要なのは、人間が何に価値を見出すかで合意に達することです。測定可能な仕事の領域が縮小するにつれて、測れない仕事を意味あるものにする方法を私たちはたくさん発明するでしょう。
司会者:AI は 10 秒でサイトを作れても、人間を引きつける推奨のツイートを 1 行も書けないかもしれない。これが最後に残る検証の仕事の一つになり得ますか?
Christian:人を惹きつける注意を集め、本当に新しい笑い話を作るのは、極めて難しい創造的な仕事です。これまで一度も測定されたことがないものを壊しにいく必要がある。私たちは長い生存と死闘の中で、未知の環境に対処する極めて強い能力を進化させてきました。そうした仕事をする人は「意味創造者」と呼ばれます。たとえばアートや文化の領域では、「良いもの」とは何かは人間の合意に依存します。たとえ AI エージェントを使うとしても、「意図」を設定しなければなりません。
司会者:自動化コストは指数関数的に下がっていく。では「検証コスト」はどうなりますか?ずっと人間の生物学的制約に縛られるのでしょうか?
Christian:現状、それは生物学的制約に縛られています。だから多くの会社が大量の AI 生成コードを出しているのに、読んで検証するのに足りる人手がそもそもありません。そこには必ずリスクが潜みます。
司会者:AI を使って AI を検証することはできないのですか?
Christian:もし AI が正しく検証できるなら、その部分自体は自動化可能です。すべての AI 検証を使い尽くした後に残るのは、本当に AI によって検証できないものだけになります。そこが人間介入のボトルネックです。
司会者:もし検証が新しい希少資源だとしても、どんどん後退していくなら、この経済圏ではどう働き、どう投資すべきでしょう?
Christian:私たちは「自動化コスト」と「検証コスト」に基づいて 2x2 の行列を作りました。左下は置き換えられる労働者です。自動化は簡単、検証も簡単。あなたは絶対にそこに居たくない。残りの 3 つの象限は:
意味創造者:自動化は難しく、検証も難しい。彼らは社会的合意、地位ゲーム、人間のつながりに取り組みます。たとえばファッション界のセンス製作者、Twitter 上の暗号資産 KOL などです。彼らはナラティブを作り、注目を調整します。
責任引受人:自動化は簡単、検証は難しい。彼らは領域のトップ専門家です。トップの弁護士、医師、ベンチャーキャピタリストなど。彼らは大規模に AI を活用しますが、最終的な境界ケースに対して責任を負い、検証サービスを提供します。
取締役:自動化は難しく、検証は容易い。核心は「意図」です。彼らは「未知の未知」に対処します。起業家のようにエージェントを指揮し、方向性を定め、逸脱度を感じ取り、そして航路を絶えず修正します。
司会者:新卒で社会に出る若者はどうすればいいですか?一方には価値のない初級の仕事があり、他方には 10 年の業界経験を磨いてようやくなれるトップの専門家がいる。両者の間には大きな隔たりがあります。AI は初級のことなら全部できます。若者はどうやってもう一方へ成長するのでしょうか?
Christian:隔たりは確かにあります。でも朗報は、学習時間を圧縮できることです。従来の研修ステップをスキップできます。いまや初級エンジニアは、ツールの助けを得て一人で、以前ならチーム全体がやっていた仕事を片づけられる。最初はミスもしますが、新人としては極めて新鮮な視点で伝統に異議を唱えられる。それが強みです。私たちが若い頃には到底できなかった方法でアイデアを実現できます。良い面も悪い面もあります。
これまでの道筋:「学位を取って、インターンを探して、努力して昇進する」。それは確かに存在しなくなっています。これは大きなカルチャーの衝撃をもたらします。新卒の若者には特に難しい。もし大学に在籍しているなら、時間を使って方向性を見極められます。いま困難な状況にいるなら、私の助言はこうです。これらのツールを使って何かを作りに行ってください。あなたの野心は、私たちがその年齢のときに抱いていたものより 100 倍大きくあるべきです。
司会者:「ボタンを押す」仕事が大量に失われることが短期的に社会を混乱させないでしょうか?
Christian:社会は必要になれば、安定を保つために「ボタンを押す」仕事を再創造するでしょう。でもこうした仕事に従事している人の多くは、本当はもっとできる能力があります。ただ過去は環境によって制約されていました。肉体労働が不要になったとき、人々はジムで鍛えるものを発明しました。今、知的労働が解放される局面では、人々は挑戦感を得るために、さまざまな副業やクリエイター経済を発展させるでしょう。だからこそ、私は「無条件基本所得(UBI)」が完全に間違っていると思います。人は意味や自己実現への動機が必要です。加えて、仮に今あなたの仕事の大部分が自動化によって置き換えられていても、あなたが AI という超強力なツールをうまく使えば、たった入社したばかりの初級社員でも、以前はチームの産出だったものを爆発的に出せるようになります。
司会者:会社や投資家にはどんな提案がありますか?
Christian:会社に対しては、検証のためのインフラに投資し、「責任をサービスとして提供する」(つまりエージェントを提供するだけでなく、結果に対しても引き受ける)ことです。加えて、「独占的な事実の出どころ」を握ること。AI は騙されやすいので、Bloomberg のような独占的な本物のデータや、深い評価を提供できる会社の価値は非常に大きいと思います。投資家に対しては、そうした投資に加えて「測れない」領域のハードな研究開発に注目することです。昔の単純なネットワーク効果は失効するかもしれません。新しいネットワーク効果は、あなたの代理が他社より信頼できるようになるのが、より良い本物のフィードバックを通じてどのように実現されているか――そこに基づいて構築されます。人々が本当に買いたいのは、検証された知能だからです。
司会者:暗号技術は、この検証プロセスに役立ちますか?
Christian:暗号領域で過去 10 年間に築かれた基盤インフラは極めて重要です。私たちが本人性の真偽を確かめ、アカウントの乗っ取りを防ぐ必要があるとき、「人格証明」などのオンチェーン技術は強力な検証を提供します。さらにデータの出どころと暗号学的な規制チェーンもあります。情報の生成やモデルがコンプライアンスに適合しているかを、厳密に暗号学的な保証で担保する必要があります。
司会者:人々は今後 1 年で何をすべきでしょうか?人類の未来に楽観的ですか?
Christian:まず恐れないでください。大量に実験してください。可能な限り、ツールを使って今の自分を「淘汰」して自動化することです。未来を探る趣味的な試みこそが、最も意義のある事業になるかもしれません。最悪でも、モデルの限界と欠点がどこにあるかを把握できます。多くのネットのクリエイターにとって、趣味はすでに事業になっています。それが未来の主流方向です。もし子どもがいるなら、彼らの才能を見つけ、熱愛することに没頭させるのが最も重要です。固定された専門テンプレートはありません。AI の新しいツールが、あなたたちだけの道をよりよく見つけるのを助けてくれます。