原題:"AI as the engine, humans as the steering wheel"イーサリアムの創設者であるヴィタリックによって書かれましたコンピレーション:ホワイトウォーター、ゴールデンファイナンス 政府、職場、ブロックチェーンベースのDAOなど、民主的な構造のどの側面を好むかを人々に尋ねると、権力の集中を避け、誰もシステムの方向性を完全に変えることはできないという強い安心感をユーザーに提供し、多くの人々の意見や知恵を集めることでより質の高い意思決定を行うことができるという同じ議論をよく耳にします。 民主的構造が嫌われる理由を人々に尋ねると、彼らはしばしば同じ苦情を述べます:一般の有権者はあまり熟練していないため、各有権者が結果に影響を与える機会は非常に限られており、意思決定に高品質の考えを投入する有権者は少ないですし、参加が少ないため(システムが攻撃されやすくなる)、実質的な中央集権が起こりやすいです。なぜなら、誰もが影響力のある人々の意見を信頼し、複製することがデフォルトになっているからです。 この記事の目的は、おそらくAIを使用して、悪影響を及ぼさずに民主的な構造から利益を得ることができるパラダイムを探ることです。 「AIはエンジン、人間はハンドル」。 人間がシステムに提供する情報はごくわずかで、おそらく数百程度ですが、すべてがよく考えられており、非常に高品質です。 AIは、このデータを「目的関数」として扱い、その目標を達成するために最善を尽くすために、たゆまぬ努力で多くの決定を下します。 特に、この記事では、単一のAIを中心に据えることなく、あらゆるAI(または人間と機械のハイブリッド)が自由に参加できる競争の激しいオープンマーケットに頼ることができるのか、という興味深い疑問を探ります。 ディレクトリ なぜAIに直接管理させないのですか?フタルキー人間の判断を抽出する深い資金調達プライバシーの追加エンジン+ステアリングホイールのデザインの利点 なぜAIに直接担当させないのですか? 人間の好みをAIベースのメカニズムに組み込む最も簡単な方法は、AIモデルを作成し、人間がその好みをある方法で入力するようにすることです。これを行う簡単な方法があります:人間の指示リストが含まれるテキストファイルをシステムプロンプトに置くだけです。そして、AIにインターネットへのアクセス権を与えるための多くの「エージェントAIフレームワーク」の1つを使用し、組織の資産とソーシャルメディアプロファイルの鍵を提供すると、それで完了です。 数回のイテレーションの後、これは多くのユースケースのニーズを満たすには十分である可能性があります。私は近い将来、AIリーディンググループが指示を出し(時にはリアルタイムでチャットを読むことさえ)行動を起こす構造が多く見られると完全に予想しています。 この構造は長期的な機関のガバナンスメカニズムとしては理想的ではありません。長期的な機関が持つべき貴重な属性の1つは信頼できる中立性です。私がこの概念を紹介した投稿では、信頼できる中立性の4つの貴重な属性を挙げました: 特定の人や特定の結果をメカニズムに書き込まないでくださいオープンで検証可能な実行シンプルに保つあまり頻繁に変更しないでください LLM (または AI エージェント) は 0/4 を満たします。 このモデルでは、トレーニング中に必然的に多数の特定のユーザーと結果の好みがコード化されます。 例えば、主要なLLMが米国での生活よりもパキスタンでの生活を重視していることを示す最近の研究を見ると、これは驚くべきAIの選好の方向性につながることがあります(!!)。 )。 オープンウェイトにすることもできますが、それはオープンソースとはほど遠いものです。 モデルの奥底にどんな悪魔が隠れているのか、よくわかりません。 LLMのコルモゴロフ複雑性は数百億ビットで、米国のすべての法律(連邦+州+地方)を合わせたのとほぼ同じです。 また、AI の進化は非常に速いため、3 か月ごとに変更する必要があります。 このため、多くのユースケースで検討したい別のアプローチは、単純なメカニズムをゲームのルールとし、AIをプレイヤーにすることです。 ルールは比較的愚かな財産権制度であり、フリンジ事件は先例をゆっくりと蓄積して調整する裁判制度によって決定され、すべてのインテリジェンスは「フリンジ」で活動する起業家からもたらされます。 個〝ゲームプレイヤー〞は、LLM、相互にやり取りし、さまざまなインターネットサービスを呼び出すLLMグループ、さまざまなAI +人間の組み合わせ、およびその他多くの構造のいずれかです。メカニズムデザイナーとして、あなたはそれを知る必要はありません。理想的な目標は、自動的に実行できるメカニズムを持つことです-そのメカニズムが何を資金提供するかを選択することを目指している場合は、できるだけビットコインやイーサリアムのブロック報酬のようにするべきです。 この方法の利点は: これにより、単一のモデルをメカニズムに組み込むことを回避できます。 その代わり、多くの異なるプレーヤーやアーキテクチャで構成されたオープンな市場が生まれ、そのすべてに独自のバイアスがあります。 オープンモデル、クローズドモデル、エージェントグループ、人間+AIハイブリッド、ロボット、無限の猿などは、すべて公平なゲームです。 このメカニズムは誰に対しても差別しません。このメカニズムはオープンソースです。 プレイヤーはそうではありませんが、ゲームはオープンソースであり、かなりよく理解されているモデルです(たとえば、政党と市場の両方がこのように運営されています)このメカニズムは非常にシンプルです。そのため、メカニズムの設計者は自分の偏見を設計にコーディングする方法が比較的少ないですこのメカニズムは変更されず、イーポックまでの間、基盤となる参加者の構造は3か月ごとに再設計される必要があります。 ガイダンスメカニズムの目標は、参加者の根本的な目標を忠実に反映することです。それはわずかな情報しか必要とせず、高品質の情報であるべきです。 このメカニズムは、答えを提出することと答えを検証することの間の非対称性を利用していると考えることができます。これは数独の解決が非常に難しいが、解決策が正しいかどうかを簡単に検証できることに似ています。あなたは(i)オープン市場を作成し、プレイヤーを「解決者」として機能させ、(ii)人間が実行するメカニズムを維持し、提案された解決策の検証を行うよりもはるかに簡単なタスクを実行します。 フタルキー Futarchyは最初にRobin Hansonによって提案されました。価値投票を行い、信念を賭けることを意味します。投票メカニズムは一連の目標(どんな目標でも構いませんが、測定可能でなければなりません)を選択し、それらをMという尺度に組み合わせます。意思決定を行う必要がある場合(単純化するために、YES/NOと仮定します)、条件付き市場を設定します:人々に(i)がYESまたはNOを選択するかどうかに賭けるよう求めます、(ii)がYESを選択した場合、Mの値が得られ、そうでなければ0になります、(iii)がNOを選択した場合、Mの値が得られ、そうでなければ0になります。これらの3つの変数があれば、市場がYESまたはNOがMの値にとってより有利だと考えるかどうかがわかります。 「企業の株価」(または暗号通貨の場合、トークン価格)は最もよく引用される指標であり、理解しやすく測定しやすいためですが、このメカニズムは月間アクティブユーザー、特定のグループの自己申告幸禸度の中央値、いくつかの定量化された非中央集権指標など、多くの指標をサポートできます。 Futarchyは元々人工知能時代の前に発明されました。ただし、Futarchyは前節で説明した「複雑なソルバー、シンプルなバリデータ」パラダイムと非常に自然に一致し、Futarchyのトレーダーは人工知能(または人間+人工知能の組み合わせ)でもあり得ます。 「ソルバー」(予測市場のトレーダー)の役割は、提案された計画が将来の指標の価値にどのような影響を与えるかを決定することです。これは難しいことです。ソルバーが正しければお金を稼ぎ、ソルバーが間違っていればお金を失います。バリデータ(指標に投票する人々、彼らは指標が「操作」されているか、または時代遅れになっていることに気付いた場合、指標を調整し、将来のある時点での実際の価値を決定するだけです)は、より簡単な質問に答えるだけです。「その指標の現在の値はいくらですか?」 人間の判断力を蒸留する 人間の判断を蒸留するというのは、ある種のメカニズムであり、その動作原理は次のようになります。解答が必要な問題がたくさん(100万個と考えてください)ある場合があります。自然の例には、 このリストの各人がプロジェクトやタスクに対してどれくらいの名誉を受け取るべきか?これらのコメントの中で、どれがソーシャルメディアプラットフォーム(またはサブコミュニティ)のルールに違反していますか?これらの指定されたEthereumアドレスの中で、どれが本物でユニークな人物を表していますか?これらの物理的なオブジェクトのうち、環境の美学にプラスまたはマイナスの影響を与えるのはどれですか? あなたはこれらの質問に答えるためのチームを持っていますが、その代償はそれぞれの回答に多くのエネルギーを費やさなければなりません。あなたはチームに少数の質問に回答するよう要求するだけです(たとえば、総リストが100万項目ある場合、チームはそのうちの100項目にしか回答しないかもしれません)。あなたは間接的な質問をチームに投げかけることさえできます。「Aliceが総信用の何パーセントを受け取るべきか?」という質問ではなく、「AliceまたはBobにはもっと信用を与えるべきか、そして何倍多くか?」と尋ねます。陪審員メカニズムを設計する際には、予算委員会、裁判所(判決の価値を決定する)、評価など、実世界で実績のあるメカニズムを繰り返し使用することができます。もちろん、陪審団の参加者自身も新しいAI研究ツールを使用して答えを見つけるのに役立てることができます。 その後、誰もが問題の全体に対する数字の回答リストを提出できるようにします(たとえば、参加者全員にどれだけのクレジットが与えられるかの推定値を提供します)。参加者にこのタスクを完了するために人工知能を使用することを奨励しますが、彼らは人工知能、人間と機械のハイブリッド、インターネット検索にアクセスでき、他の人間や人工知能の労働者を自律的に雇用できる人工知能、制御理論に基づいた強化された猿など、どんな技術も使用できます。 完全なリストの提供者と陪審員が回答を提出すると、陪審団の回答に基づいて完全なリストが検査され、陪審団の回答と最も互換性のある完全なリストのいくつかの組み合わせが最終的な回答として選択されます。 蒸馏された人間の判断メカニズムは futarchy とは異なりますが、いくつか重要な類似点があります: futarchy では、「解算者」が予測を行い、その予測に基づく「真のデータ」(解算者に報酬または罰則を与えるための出力インジケーター)は、陪審団が運営する予言マシンです。蒸留された人間の判断では、「解算者」は多くの問題に答え、彼らの予測は「真のデータ」に基づいており、そのデータは陪審団が提供した高品質な回答の一部に過ぎない。 クレジット配布のために人間の判断を蒸留するためのおもちゃの例は、こちらのPythonコードを参照してください。 このスクリプトでは、陪審員としての役割を求め、AIが生成した(および人間が生成した)完全なリストが含まれており、一部はコードに事前に含まれています。 このメカニズムは、陪審員の回答の完全なリストに最も適した線形結合を識別します。 この場合、勝利の組み合わせは0.199 \* Claudeの答え + 0.801 \* Deepseekの答えです。 この組み合わせは、単一のモデルよりも陪審員の答えと一致しています。 これらの係数は、コミッターへの報酬にもなります。 この「サウロンを倒す」例では、「ハンドルとしての人間」の側面が2箇所に現れています。 第一に、各質問には質の高い人間による判断が適用されるが、これは依然として陪審員を「テクノクラート的」な業績評価者として使っている。 第二に、「サウロンを倒す」ことが正しい目標であるかどうかを決定する暗黙の投票メカニズムがあります(たとえば、サウロンと同盟を結ぼうとしたり、和平の譲歩として特定の重要な川の東のすべての領土をサウロンに与えたりすることとは対照的です)。 例えば、陪審員の仕事が無作為に選ばれたフォーラムの投稿にコミュニティのルールに準拠しているかどうかのフラグを立てることが陪審員の仕事である分散型ソーシャルメディアプラットフォーム(またはサブコミュニティ)を想像してみてください。 人間の判断のパラダイムには、いくつかのオープン変数が存在します: どのようにサンプリングしますか?完全なリストの提出者の役割は、多くの回答を提供することです。陪審員の役割は、高品質の回答を提供することです。陪審員を選ぶためには、陪審員の回答とのモデルの一致度が最大限に示されるような問題を選ぶ必要があります。考慮すべき要因には、次のものが含まれます:専門知識と偏見のバランス:熟練した陪審員は通常、その専門分野に特化しているため、評価すべき内容を選択させると、より高品質な入力を得ることができます。一方、過剰な選択肢は偏見(陪審員が関係のある人のコンテンツを好む)やサンプリングの欠点(一部のコンテンツが系統的に評価されていない)を引き起こす可能性があります。ファング·グーデハト:コンテンツが人工知能システムを「操作」しようとする試みがあります。例えば、貢献者が印象的に見えるが無駄なコードを大量生成することがあります。これは陪審団がそれを検出できることを意味しますが、静的な人工知能モデルは積極的な努力なしには検出しません。このような行動を捉える可能性のある方法の1つは、チャレンジメカニズムを追加することです。このメカニズムを通じて個人はこのような試みをマークし、陪審団に判断させることができます(これにより、人工知能開発者がそれらを正しく捉えることを保証することが奨励されます)。陪審団が同意すれば、通報者には報酬が与えられ、陪審団が同意しなければ罰金が課せられます。どのスコアリング機能を使用していますか? 現在のディープ・グラントのパイロット版で使われているアイデアの1つは、陪審員に「AとBのどちらがより多くのクレジットを得るべきか、そしてどのくらいのクレジットを得るべきか」と尋ねることです。 スコアリング関数は score(x) = sum((log(x[B]) - です。 log(x[A]) - log(juror\_ratio)) \*\* 2 (A, B, juror\_ratio) in jury\_answers): つまり、陪審員の回答ごとに、完全なリストのレートが陪審員によって提供されたレートからどれだけ離れているかを尋ね、距離の 2 乗に比例したペナルティ (対数空間) を追加します。 これは、採点関数には多くの設計空間があり、採点関数の選択は、陪審員にどの質問をするかの選択に関連していることを示すためです。完全なリストの提出者にどのように報酬を与えますか? 理想的には、独占的なメカニズムを避けるために、複数の参加者にゼロ以外の報酬を頻繁に与える必要がありますが、参加者は同じ(またはわずかに変更された)回答セットを複数回送信しても報酬を増やすことができないという特性も満たす必要があります。 有望なアプローチの1つは、陪審員に最も適した回答の完全なリスト(非負の係数と合計1)の線形結合を直接計算し、これらの同じ係数を使用して報酬を分割することです。 他の方法もあるかもしれません。 全体的に、目標は既知の有効で、偏見が最小限に抑えられており、時間の試練に耐えた人間の判断メカニズムを採用することです(たとえば、法廷システムの対立構造がどのようにして争いの両側を含み、それぞれが多くの情報を持っているが偏見を持っている一方、裁判官は情報が少ないかもしれないが偏見を持っていないかもしれない)。そして、これらのメカニズムを合理的な高い忠実度で、非常に低コストな予測指標として使用し、オープンな人工知能市場を利用します(これは大規模な予測モデルの「蒸留」の方法に類似しています)。 ディープファンディング ディープファイナンスは、人間の蒸留された判断を埋めるために使用される「Xのクレジットの何パーセントがYに属するか?」という問題の重みを図に適用することです。 最も簡単な方法は、例を挙げて説明することです: 2つの階層のディープファンディングの例の出力:イーサリアムの思想の起源。ここでPythonコードをご覧ください。 ここでの目標は、イーサリアムへの哲学的貢献の名誉を割り当てることです。例を見てみましょう: ここに表示されている模擬深度ファイナンスラウンドは、20.5%の功績をサイバーパンク運動に、9.2%の功績を技術進歩主義に帰属させています。各ノードでは、あなたは常に1つの質問を投げかけます:それはどの程度独自の貢献であり(したがって自己の功績を称える価値がある)、どの程度上流の影響の再構築なのか?サイバーパンク運動においては、40%が新しく、60%が依存しています。リベラルな小政府主義とアナキズムは、サイファーパンク運動の17.3%の功績をあげたが、スイスの直接民主制では5%に過ぎない。しかし、自由主義の小さな政府主義と無政府主義もビットコインの貨幣哲学に影響を与え、それによりイーサリアムの哲学にも影響を与えました。自由主義的小政府主義とアナーキズムがイーサリアムに対して果たす総貢献度合いを計算するには、各経路上の辺を掛け合わせ、その後、経路を加算する必要があります:0.205 \* 0.6 \* 0.173 + 0.195 \* 0.648 \* 0.201 ≈ 0.0466。したがって、イーサリアムの哲学に貢献したすべての人に報酬を与えるために100ドルを寄付する必要がある場合、このシミュレーションに基づいた深い資金調達ラウンドでは、自由主義の小政府主義者とアナーキストは4.66ドルを受け取ります。 この方法は、以前の作業に基づいて作業し、高度に構造化された分野に適用することを目的としています。学術界(引用図を参照してください)やオープンソースソフトウェア(ライブラリの依存関係やフォークを考えてみてください)が自然な例です。 運用良好な深い資金提供システムの目標は、グローバルなグラフを作成し維持することです。特定のプロジェクトをサポートしたい資金提供者は、そのノードを表すアドレスに資金を送金でき、資金はエッジの重みに従って自動的にその依存関係に伝播されます(およびその依存関係などに再帰的に)。 分散型プロトコルが組み込みの深い資金調達装置を使用してトークンを発行することを想像してみてください:プロトコル内の分散型ガバナンスは、陪審団を選出し、その陪審団は深い資金調達メカニズムを実行します。なぜならプロトコルは自動的にトークンを発行し、それをそれ自身に対応するノードに保管するからです。これにより、プロトコルはプログラムによって、直接および間接的な貢献者全員に報酬を提供し、ビットコインやイーサリアムのブロックリワードが特定の種類の貢献者(マイナー)に報酬を提供する方法を思い起こさせます。陪審団はエッジの重みに影響を与えることで、重視する貢献のタイプを定義し続けることができます。このメカニズムは、マイニング、販売、または一度限りのエアドロップの分散型かつ長期的に持続可能な代替手段として機能する可能性があります。 プライバシーの強化 通常、上記の例の問題に正しく判断を下すには、個人情報にアクセスできる必要があります:組織の内部チャット履歴、コミュニティメンバーからの機密情報など。特に規模の小さい環境では、「単一のAIのみを使用する」ことの利点は、情報にアクセスするAIを一つだけにすることで、情報を公開するよりも受け入れやすくなることです。 このようなケースで蒸留の人間の判断や多額の資金が機能するために、暗号技術を使用してAIに個人情報への安全なアクセスを許可することができます。 この考え方は、マルチパーティ計算(MPC)、完全準同型暗号化(FHE)、信頼できる実行環境(TEE)、または同様のメカニズムを使用して個人情報を提供することですただし、その出力がメカニックに直接入る「完全なリストコミット」である場合に限ります。 このようにする場合、AIモデル(人間やAI +人間の組み合わせではなく、データを見ることができないため)を機構セットに制限する必要があり、特定の基盤(たとえばMPC、FHE、信頼できるハードウェア)で実行されるモデルに焦点を当てる必要があります。主要な研究の方向の1つは、最近の効果的で意義深い実用的なバージョンを見つけることです。 エンジン+ステアリングデザインの利点 このようなデザインには、多くの期待される利点があります。 これまでに最も重要な利点は、DAOを構築することを可能にし、人間の選民が方向を制御できるということですが、彼らは過度の決定に悩まされることはありません。 それらは折衷を実現し、誰もがN個の決定をしなければなりませんが、彼らが持つ権力は1つの決定を下すことだけではなく(通常、委任が機能する方法)、より直接的に表現できない豊かな好みを引き起こすことができます。 さらに、このようなメカニズムはインセンティブのスムーズさを持っているようです。ここで言う「インセンティブのスムーズさ」とは、2つの要素の組み合わせを指します: 拡散:投票メカニズムによって取られる単一の行動は、単一の参加者の利益に過度の影響を与えることはありません。混乱: 投票決定とそれが参加者の利益にどのように影響するかの関係は、より複雑で計算が困難です。 ここでの難読化と拡散という用語は、暗号化とハッシュ関数のセキュリティの重要な特性である暗号化から取られています。 現実世界におけるスムーズなインセンティブの良い例は法の支配です:政府の上層部は定期的に「アリスの会社に 20 億ドルを与える」、「ボブの会社に 10 億ドルの罰金を科す」などの行動を取りません。代わりに、大勢の参加者に均等に適用されるルールを制定し、それを別の種類の参加者が解釈することを目指しています。この方法が機能すると、贈賄やその他の形式の汚職が大幅に減少する利点があります。それが破られると(実際にはよく起こることです)、これらの問題はすぐに大きくなります。 AIは明らかに将来の重要な構成要素になるでしょう。これは避けられないほど、将来の統治の重要な構成要素になるでしょう。しかし、AIを統治に参加させると、明らかなリスクがあります:AIには偏見があり、トレーニング中に意図的に破壊される可能性があります。さらに、AI技術の発展は非常に速いため、「AIに権力を委ねる」ということは実際には「AIのアップグレードを担当する人に権力を委ねる」ということを意味するかもしれません。蒸留された人間の判断は、AIの力を開放的な自由市場の方法で利用しつつ、人間のコントロールを維持する民主主義的な前進の代替手段を提供します。 フィードバックとレビューをしてくれた Devansh Mehta 氏、Davide Crapis 氏、Julian Zawistowski 氏、議論をしてくれた Tina Zhen 氏、Shaw Walters 氏らに感謝します。
Vitalikの新しい文:未来のガバナンスの新たなパラダイム「AIエンジン+人間のハンドル」
原題:"AI as the engine, humans as the steering wheel"
イーサリアムの創設者であるヴィタリックによって書かれました
コンピレーション:ホワイトウォーター、ゴールデンファイナンス
政府、職場、ブロックチェーンベースのDAOなど、民主的な構造のどの側面を好むかを人々に尋ねると、権力の集中を避け、誰もシステムの方向性を完全に変えることはできないという強い安心感をユーザーに提供し、多くの人々の意見や知恵を集めることでより質の高い意思決定を行うことができるという同じ議論をよく耳にします。
民主的構造が嫌われる理由を人々に尋ねると、彼らはしばしば同じ苦情を述べます:一般の有権者はあまり熟練していないため、各有権者が結果に影響を与える機会は非常に限られており、意思決定に高品質の考えを投入する有権者は少ないですし、参加が少ないため(システムが攻撃されやすくなる)、実質的な中央集権が起こりやすいです。なぜなら、誰もが影響力のある人々の意見を信頼し、複製することがデフォルトになっているからです。
この記事の目的は、おそらくAIを使用して、悪影響を及ぼさずに民主的な構造から利益を得ることができるパラダイムを探ることです。 「AIはエンジン、人間はハンドル」。 人間がシステムに提供する情報はごくわずかで、おそらく数百程度ですが、すべてがよく考えられており、非常に高品質です。 AIは、このデータを「目的関数」として扱い、その目標を達成するために最善を尽くすために、たゆまぬ努力で多くの決定を下します。 特に、この記事では、単一のAIを中心に据えることなく、あらゆるAI(または人間と機械のハイブリッド)が自由に参加できる競争の激しいオープンマーケットに頼ることができるのか、という興味深い疑問を探ります。
ディレクトリ
なぜAIに直接管理させないのですか?
フタルキー
人間の判断を抽出する
深い資金調達
プライバシーの追加
エンジン+ステアリングホイールのデザインの利点
なぜAIに直接担当させないのですか?
人間の好みをAIベースのメカニズムに組み込む最も簡単な方法は、AIモデルを作成し、人間がその好みをある方法で入力するようにすることです。これを行う簡単な方法があります:人間の指示リストが含まれるテキストファイルをシステムプロンプトに置くだけです。そして、AIにインターネットへのアクセス権を与えるための多くの「エージェントAIフレームワーク」の1つを使用し、組織の資産とソーシャルメディアプロファイルの鍵を提供すると、それで完了です。
数回のイテレーションの後、これは多くのユースケースのニーズを満たすには十分である可能性があります。私は近い将来、AIリーディンググループが指示を出し(時にはリアルタイムでチャットを読むことさえ)行動を起こす構造が多く見られると完全に予想しています。
この構造は長期的な機関のガバナンスメカニズムとしては理想的ではありません。長期的な機関が持つべき貴重な属性の1つは信頼できる中立性です。私がこの概念を紹介した投稿では、信頼できる中立性の4つの貴重な属性を挙げました:
特定の人や特定の結果をメカニズムに書き込まないでください
オープンで検証可能な実行
シンプルに保つ
あまり頻繁に変更しないでください
LLM (または AI エージェント) は 0/4 を満たします。 このモデルでは、トレーニング中に必然的に多数の特定のユーザーと結果の好みがコード化されます。 例えば、主要なLLMが米国での生活よりもパキスタンでの生活を重視していることを示す最近の研究を見ると、これは驚くべきAIの選好の方向性につながることがあります(!!)。 )。 オープンウェイトにすることもできますが、それはオープンソースとはほど遠いものです。 モデルの奥底にどんな悪魔が隠れているのか、よくわかりません。 LLMのコルモゴロフ複雑性は数百億ビットで、米国のすべての法律(連邦+州+地方)を合わせたのとほぼ同じです。 また、AI の進化は非常に速いため、3 か月ごとに変更する必要があります。
このため、多くのユースケースで検討したい別のアプローチは、単純なメカニズムをゲームのルールとし、AIをプレイヤーにすることです。 ルールは比較的愚かな財産権制度であり、フリンジ事件は先例をゆっくりと蓄積して調整する裁判制度によって決定され、すべてのインテリジェンスは「フリンジ」で活動する起業家からもたらされます。
個〝ゲームプレイヤー〞は、LLM、相互にやり取りし、さまざまなインターネットサービスを呼び出すLLMグループ、さまざまなAI +人間の組み合わせ、およびその他多くの構造のいずれかです。メカニズムデザイナーとして、あなたはそれを知る必要はありません。理想的な目標は、自動的に実行できるメカニズムを持つことです-そのメカニズムが何を資金提供するかを選択することを目指している場合は、できるだけビットコインやイーサリアムのブロック報酬のようにするべきです。
この方法の利点は:
これにより、単一のモデルをメカニズムに組み込むことを回避できます。 その代わり、多くの異なるプレーヤーやアーキテクチャで構成されたオープンな市場が生まれ、そのすべてに独自のバイアスがあります。 オープンモデル、クローズドモデル、エージェントグループ、人間+AIハイブリッド、ロボット、無限の猿などは、すべて公平なゲームです。 このメカニズムは誰に対しても差別しません。
このメカニズムはオープンソースです。 プレイヤーはそうではありませんが、ゲームはオープンソースであり、かなりよく理解されているモデルです(たとえば、政党と市場の両方がこのように運営されています)
このメカニズムは非常にシンプルです。そのため、メカニズムの設計者は自分の偏見を設計にコーディングする方法が比較的少ないです
このメカニズムは変更されず、イーポックまでの間、基盤となる参加者の構造は3か月ごとに再設計される必要があります。
ガイダンスメカニズムの目標は、参加者の根本的な目標を忠実に反映することです。それはわずかな情報しか必要とせず、高品質の情報であるべきです。
このメカニズムは、答えを提出することと答えを検証することの間の非対称性を利用していると考えることができます。これは数独の解決が非常に難しいが、解決策が正しいかどうかを簡単に検証できることに似ています。あなたは(i)オープン市場を作成し、プレイヤーを「解決者」として機能させ、(ii)人間が実行するメカニズムを維持し、提案された解決策の検証を行うよりもはるかに簡単なタスクを実行します。
フタルキー
Futarchyは最初にRobin Hansonによって提案されました。価値投票を行い、信念を賭けることを意味します。投票メカニズムは一連の目標(どんな目標でも構いませんが、測定可能でなければなりません)を選択し、それらをMという尺度に組み合わせます。意思決定を行う必要がある場合(単純化するために、YES/NOと仮定します)、条件付き市場を設定します:人々に(i)がYESまたはNOを選択するかどうかに賭けるよう求めます、(ii)がYESを選択した場合、Mの値が得られ、そうでなければ0になります、(iii)がNOを選択した場合、Mの値が得られ、そうでなければ0になります。これらの3つの変数があれば、市場がYESまたはNOがMの値にとってより有利だと考えるかどうかがわかります。
「企業の株価」(または暗号通貨の場合、トークン価格)は最もよく引用される指標であり、理解しやすく測定しやすいためですが、このメカニズムは月間アクティブユーザー、特定のグループの自己申告幸禸度の中央値、いくつかの定量化された非中央集権指標など、多くの指標をサポートできます。
Futarchyは元々人工知能時代の前に発明されました。ただし、Futarchyは前節で説明した「複雑なソルバー、シンプルなバリデータ」パラダイムと非常に自然に一致し、Futarchyのトレーダーは人工知能(または人間+人工知能の組み合わせ)でもあり得ます。 「ソルバー」(予測市場のトレーダー)の役割は、提案された計画が将来の指標の価値にどのような影響を与えるかを決定することです。これは難しいことです。ソルバーが正しければお金を稼ぎ、ソルバーが間違っていればお金を失います。バリデータ(指標に投票する人々、彼らは指標が「操作」されているか、または時代遅れになっていることに気付いた場合、指標を調整し、将来のある時点での実際の価値を決定するだけです)は、より簡単な質問に答えるだけです。「その指標の現在の値はいくらですか?」
人間の判断力を蒸留する
人間の判断を蒸留するというのは、ある種のメカニズムであり、その動作原理は次のようになります。解答が必要な問題がたくさん(100万個と考えてください)ある場合があります。自然の例には、
このリストの各人がプロジェクトやタスクに対してどれくらいの名誉を受け取るべきか?
これらのコメントの中で、どれがソーシャルメディアプラットフォーム(またはサブコミュニティ)のルールに違反していますか?
これらの指定されたEthereumアドレスの中で、どれが本物でユニークな人物を表していますか?
これらの物理的なオブジェクトのうち、環境の美学にプラスまたはマイナスの影響を与えるのはどれですか?
あなたはこれらの質問に答えるためのチームを持っていますが、その代償はそれぞれの回答に多くのエネルギーを費やさなければなりません。あなたはチームに少数の質問に回答するよう要求するだけです(たとえば、総リストが100万項目ある場合、チームはそのうちの100項目にしか回答しないかもしれません)。あなたは間接的な質問をチームに投げかけることさえできます。「Aliceが総信用の何パーセントを受け取るべきか?」という質問ではなく、「AliceまたはBobにはもっと信用を与えるべきか、そして何倍多くか?」と尋ねます。陪審員メカニズムを設計する際には、予算委員会、裁判所(判決の価値を決定する)、評価など、実世界で実績のあるメカニズムを繰り返し使用することができます。もちろん、陪審団の参加者自身も新しいAI研究ツールを使用して答えを見つけるのに役立てることができます。
その後、誰もが問題の全体に対する数字の回答リストを提出できるようにします(たとえば、参加者全員にどれだけのクレジットが与えられるかの推定値を提供します)。参加者にこのタスクを完了するために人工知能を使用することを奨励しますが、彼らは人工知能、人間と機械のハイブリッド、インターネット検索にアクセスでき、他の人間や人工知能の労働者を自律的に雇用できる人工知能、制御理論に基づいた強化された猿など、どんな技術も使用できます。
完全なリストの提供者と陪審員が回答を提出すると、陪審団の回答に基づいて完全なリストが検査され、陪審団の回答と最も互換性のある完全なリストのいくつかの組み合わせが最終的な回答として選択されます。
蒸馏された人間の判断メカニズムは futarchy とは異なりますが、いくつか重要な類似点があります:
futarchy では、「解算者」が予測を行い、その予測に基づく「真のデータ」(解算者に報酬または罰則を与えるための出力インジケーター)は、陪審団が運営する予言マシンです。
蒸留された人間の判断では、「解算者」は多くの問題に答え、彼らの予測は「真のデータ」に基づいており、そのデータは陪審団が提供した高品質な回答の一部に過ぎない。
クレジット配布のために人間の判断を蒸留するためのおもちゃの例は、こちらのPythonコードを参照してください。 このスクリプトでは、陪審員としての役割を求め、AIが生成した(および人間が生成した)完全なリストが含まれており、一部はコードに事前に含まれています。 このメカニズムは、陪審員の回答の完全なリストに最も適した線形結合を識別します。 この場合、勝利の組み合わせは0.199 * Claudeの答え + 0.801 * Deepseekの答えです。 この組み合わせは、単一のモデルよりも陪審員の答えと一致しています。 これらの係数は、コミッターへの報酬にもなります。
この「サウロンを倒す」例では、「ハンドルとしての人間」の側面が2箇所に現れています。 第一に、各質問には質の高い人間による判断が適用されるが、これは依然として陪審員を「テクノクラート的」な業績評価者として使っている。 第二に、「サウロンを倒す」ことが正しい目標であるかどうかを決定する暗黙の投票メカニズムがあります(たとえば、サウロンと同盟を結ぼうとしたり、和平の譲歩として特定の重要な川の東のすべての領土をサウロンに与えたりすることとは対照的です)。 例えば、陪審員の仕事が無作為に選ばれたフォーラムの投稿にコミュニティのルールに準拠しているかどうかのフラグを立てることが陪審員の仕事である分散型ソーシャルメディアプラットフォーム(またはサブコミュニティ)を想像してみてください。
人間の判断のパラダイムには、いくつかのオープン変数が存在します:
どのようにサンプリングしますか?完全なリストの提出者の役割は、多くの回答を提供することです。陪審員の役割は、高品質の回答を提供することです。陪審員を選ぶためには、陪審員の回答とのモデルの一致度が最大限に示されるような問題を選ぶ必要があります。考慮すべき要因には、次のものが含まれます:
専門知識と偏見のバランス:熟練した陪審員は通常、その専門分野に特化しているため、評価すべき内容を選択させると、より高品質な入力を得ることができます。一方、過剰な選択肢は偏見(陪審員が関係のある人のコンテンツを好む)やサンプリングの欠点(一部のコンテンツが系統的に評価されていない)を引き起こす可能性があります。
ファング·グーデハト:コンテンツが人工知能システムを「操作」しようとする試みがあります。例えば、貢献者が印象的に見えるが無駄なコードを大量生成することがあります。これは陪審団がそれを検出できることを意味しますが、静的な人工知能モデルは積極的な努力なしには検出しません。このような行動を捉える可能性のある方法の1つは、チャレンジメカニズムを追加することです。このメカニズムを通じて個人はこのような試みをマークし、陪審団に判断させることができます(これにより、人工知能開発者がそれらを正しく捉えることを保証することが奨励されます)。陪審団が同意すれば、通報者には報酬が与えられ、陪審団が同意しなければ罰金が課せられます。
どのスコアリング機能を使用していますか? 現在のディープ・グラントのパイロット版で使われているアイデアの1つは、陪審員に「AとBのどちらがより多くのクレジットを得るべきか、そしてどのくらいのクレジットを得るべきか」と尋ねることです。 スコアリング関数は score(x) = sum((log(x[B]) - です。 log(x[A]) - log(juror_ratio)) ** 2 (A, B, juror_ratio) in jury_answers): つまり、陪審員の回答ごとに、完全なリストのレートが陪審員によって提供されたレートからどれだけ離れているかを尋ね、距離の 2 乗に比例したペナルティ (対数空間) を追加します。 これは、採点関数には多くの設計空間があり、採点関数の選択は、陪審員にどの質問をするかの選択に関連していることを示すためです。
完全なリストの提出者にどのように報酬を与えますか? 理想的には、独占的なメカニズムを避けるために、複数の参加者にゼロ以外の報酬を頻繁に与える必要がありますが、参加者は同じ(またはわずかに変更された)回答セットを複数回送信しても報酬を増やすことができないという特性も満たす必要があります。 有望なアプローチの1つは、陪審員に最も適した回答の完全なリスト(非負の係数と合計1)の線形結合を直接計算し、これらの同じ係数を使用して報酬を分割することです。 他の方法もあるかもしれません。
全体的に、目標は既知の有効で、偏見が最小限に抑えられており、時間の試練に耐えた人間の判断メカニズムを採用することです(たとえば、法廷システムの対立構造がどのようにして争いの両側を含み、それぞれが多くの情報を持っているが偏見を持っている一方、裁判官は情報が少ないかもしれないが偏見を持っていないかもしれない)。そして、これらのメカニズムを合理的な高い忠実度で、非常に低コストな予測指標として使用し、オープンな人工知能市場を利用します(これは大規模な予測モデルの「蒸留」の方法に類似しています)。
ディープファンディング
ディープファイナンスは、人間の蒸留された判断を埋めるために使用される「Xのクレジットの何パーセントがYに属するか?」という問題の重みを図に適用することです。
最も簡単な方法は、例を挙げて説明することです:
2つの階層のディープファンディングの例の出力:イーサリアムの思想の起源。ここでPythonコードをご覧ください。
ここでの目標は、イーサリアムへの哲学的貢献の名誉を割り当てることです。例を見てみましょう:
ここに表示されている模擬深度ファイナンスラウンドは、20.5%の功績をサイバーパンク運動に、9.2%の功績を技術進歩主義に帰属させています。
各ノードでは、あなたは常に1つの質問を投げかけます:それはどの程度独自の貢献であり(したがって自己の功績を称える価値がある)、どの程度上流の影響の再構築なのか?サイバーパンク運動においては、40%が新しく、60%が依存しています。
リベラルな小政府主義とアナキズムは、サイファーパンク運動の17.3%の功績をあげたが、スイスの直接民主制では5%に過ぎない。
しかし、自由主義の小さな政府主義と無政府主義もビットコインの貨幣哲学に影響を与え、それによりイーサリアムの哲学にも影響を与えました。
自由主義的小政府主義とアナーキズムがイーサリアムに対して果たす総貢献度合いを計算するには、各経路上の辺を掛け合わせ、その後、経路を加算する必要があります:0.205 * 0.6 * 0.173 + 0.195 * 0.648 * 0.201 ≈ 0.0466。したがって、イーサリアムの哲学に貢献したすべての人に報酬を与えるために100ドルを寄付する必要がある場合、このシミュレーションに基づいた深い資金調達ラウンドでは、自由主義の小政府主義者とアナーキストは4.66ドルを受け取ります。
この方法は、以前の作業に基づいて作業し、高度に構造化された分野に適用することを目的としています。学術界(引用図を参照してください)やオープンソースソフトウェア(ライブラリの依存関係やフォークを考えてみてください)が自然な例です。
運用良好な深い資金提供システムの目標は、グローバルなグラフを作成し維持することです。特定のプロジェクトをサポートしたい資金提供者は、そのノードを表すアドレスに資金を送金でき、資金はエッジの重みに従って自動的にその依存関係に伝播されます(およびその依存関係などに再帰的に)。
分散型プロトコルが組み込みの深い資金調達装置を使用してトークンを発行することを想像してみてください:プロトコル内の分散型ガバナンスは、陪審団を選出し、その陪審団は深い資金調達メカニズムを実行します。なぜならプロトコルは自動的にトークンを発行し、それをそれ自身に対応するノードに保管するからです。これにより、プロトコルはプログラムによって、直接および間接的な貢献者全員に報酬を提供し、ビットコインやイーサリアムのブロックリワードが特定の種類の貢献者(マイナー)に報酬を提供する方法を思い起こさせます。陪審団はエッジの重みに影響を与えることで、重視する貢献のタイプを定義し続けることができます。このメカニズムは、マイニング、販売、または一度限りのエアドロップの分散型かつ長期的に持続可能な代替手段として機能する可能性があります。
プライバシーの強化
通常、上記の例の問題に正しく判断を下すには、個人情報にアクセスできる必要があります:組織の内部チャット履歴、コミュニティメンバーからの機密情報など。特に規模の小さい環境では、「単一のAIのみを使用する」ことの利点は、情報にアクセスするAIを一つだけにすることで、情報を公開するよりも受け入れやすくなることです。
このようなケースで蒸留の人間の判断や多額の資金が機能するために、暗号技術を使用してAIに個人情報への安全なアクセスを許可することができます。 この考え方は、マルチパーティ計算(MPC)、完全準同型暗号化(FHE)、信頼できる実行環境(TEE)、または同様のメカニズムを使用して個人情報を提供することですただし、その出力がメカニックに直接入る「完全なリストコミット」である場合に限ります。
このようにする場合、AIモデル(人間やAI +人間の組み合わせではなく、データを見ることができないため)を機構セットに制限する必要があり、特定の基盤(たとえばMPC、FHE、信頼できるハードウェア)で実行されるモデルに焦点を当てる必要があります。主要な研究の方向の1つは、最近の効果的で意義深い実用的なバージョンを見つけることです。
エンジン+ステアリングデザインの利点
このようなデザインには、多くの期待される利点があります。 これまでに最も重要な利点は、DAOを構築することを可能にし、人間の選民が方向を制御できるということですが、彼らは過度の決定に悩まされることはありません。 それらは折衷を実現し、誰もがN個の決定をしなければなりませんが、彼らが持つ権力は1つの決定を下すことだけではなく(通常、委任が機能する方法)、より直接的に表現できない豊かな好みを引き起こすことができます。
さらに、このようなメカニズムはインセンティブのスムーズさを持っているようです。ここで言う「インセンティブのスムーズさ」とは、2つの要素の組み合わせを指します:
拡散:投票メカニズムによって取られる単一の行動は、単一の参加者の利益に過度の影響を与えることはありません。
混乱: 投票決定とそれが参加者の利益にどのように影響するかの関係は、より複雑で計算が困難です。
ここでの難読化と拡散という用語は、暗号化とハッシュ関数のセキュリティの重要な特性である暗号化から取られています。
現実世界におけるスムーズなインセンティブの良い例は法の支配です:政府の上層部は定期的に「アリスの会社に 20 億ドルを与える」、「ボブの会社に 10 億ドルの罰金を科す」などの行動を取りません。代わりに、大勢の参加者に均等に適用されるルールを制定し、それを別の種類の参加者が解釈することを目指しています。この方法が機能すると、贈賄やその他の形式の汚職が大幅に減少する利点があります。それが破られると(実際にはよく起こることです)、これらの問題はすぐに大きくなります。
AIは明らかに将来の重要な構成要素になるでしょう。これは避けられないほど、将来の統治の重要な構成要素になるでしょう。しかし、AIを統治に参加させると、明らかなリスクがあります:AIには偏見があり、トレーニング中に意図的に破壊される可能性があります。さらに、AI技術の発展は非常に速いため、「AIに権力を委ねる」ということは実際には「AIのアップグレードを担当する人に権力を委ねる」ということを意味するかもしれません。蒸留された人間の判断は、AIの力を開放的な自由市場の方法で利用しつつ、人間のコントロールを維持する民主主義的な前進の代替手段を提供します。
フィードバックとレビューをしてくれた Devansh Mehta 氏、Davide Crapis 氏、Julian Zawistowski 氏、議論をしてくれた Tina Zhen 氏、Shaw Walters 氏らに感謝します。