- 1832年、ロンドン手形交換所は、法律を必要とせず、評判と排除のメカニズムによって31の銀行間の決済問題を解決した。
- その核心は技術ではなく、明確なアイデンティティ、行動基準、違反時の罰則からなる「信頼のアーキテクチャ」にあった。
- 今日、AIエージェントは、人間の監視なしに互いに交渉しなければならない同様の環境に入りつつある。
- 現在のフレームワークには、競合他社間のエージェント間交渉をサポートする信頼のアーキテクチャが欠けている。
- AIは現在「ルール」に従うことには長けているが、実際の交渉には柔軟な「基準」と判断力が必要である。
- 現在のモデルは、立場を保持したり、リスクを評価したり、財務的・法的帰結を理解したりするように訓練されていない。
- 2つのエージェントが「従順」すぎると、取引において不合理な決定を下す「エコー行動」現象が発生する。
- AIは確率的であるため、同じ状況でも異なる結果が生じることがあり、これは「リグリング問題(wriggling problem)」と呼ばれる。
- 解決には、アイデンティティと評判、脚本ではなく境界線、明確な責任、そしてエスカレーションメカニズムの4つの要素が必要である。
- 医療、金融、サプライチェーンなど、エージェントが1日に数千回の交渉を行う実用例が登場している。
- 組織は、エージェントを大規模に導入する前に、基準、監査システム、評判インフラを構築する必要がある。
📌 今日のAIの課題は、計算能力ではなく、1832年の銀行システムのような「信頼のアーキテクチャ」を構築することである。何百万ものAIエージェントが金融、医療、商業で自律的な交渉を始めると、結果の不一致、責任の欠如、不合理な行動などの問題が深刻化する。明確な基準、アイデンティティ、制御メカニズムがなければ、AIシステムは経済を促進する代わりに信頼を損なう可能性がある。

