2025年11月12日公開
第12回 生成AIエージェントのガバナンスとベンダ・ユーザ・エージェントと対峙する企業等の留意点
Ⅰ 目前に迫るAIエージェント時代
(生成)AIエージェントとは、達成したい目的を指示すると当該目的を実現するために必要なタスクが何かを自律的に判断し、一連のタスクを(ユーザの承認を得ながら)適切なAIやソフトウェアの利用、検索、サイト訪問等を通じて実施することで、一連のプロセスの代行が可能なAIである1。例えば、プログラミング(バイブ・コーディング)に関するAIエージェントの場合、どのようなプログラムが欲しいかを指示すると、随時必要な確認・承認(例えばプログラムの公開の承認)を求めながら設計・プログラミング・テスト等のプロセスを自律的に遂行してくれる。
従来のAIは、人間が個別の指示を重ねて初めて目的が達成できたが、目的のみ指示すれば自律的にその目的に到達してくれるAIエージェントの利便性は高い。BCGの予測によれば、2030年には約520億ドルに達するそうである2。NRIは2030年には日本において900万体のAIエージェントが生まれると試算する3。今後はAIエージェント時代が到来するだろう。
1)松尾剛行『生成AIの法律実務』(弘文堂、2025年)33頁参照。
2)高柳慎一「次世代のビジネス革命? AIエージェントとは」BCG Japan2025年3月12日(https://bcg-jp.com/article/8249/)
3)森健「「AIエージェント」が人手不足を解消するための3つの条件」&N未来創発ラボ2025年4月16日(https://www.nri.com/jp/media/column/extending_society_with_ai/20250416.html)
Ⅱ AIエージェントのガバナンス
このようにAIエージェントが重要だからこそ、これをどのように規律していくか、そのガバナンスが問題となる。筆者はAIガバナンスの主なターゲットについて、5段階の変遷があると考える4。
| 第1段階 | ルールベースAI | 「ルール」の時代 |
| 第2段階 | (学習系)分析系AI | 「(学習データにより生成された)モデル」の時代 |
| 第3段階 | 生成AI | 「プロンプト」の時代 |
| 第4段階 | RAG(ロングコンテキスト含む) | 「投入データ」の時代 |
| 第5段階 | AIエージェント | 「プロセス設計」の時代 |
第1段階、即ちルールベースAIの時代はまさにそのベースとなるルールが何かが重要な「ルール」の時代であった。例えば伝統的な契約レビューAIは、まさにチェックリストに基づきアップされた契約と凸合・照合することで動作することか、どのようなルール(チェックリスト)が設定されたかが肝心であった。
第2段階、即ち(学習系)分析系AIの時代は、「(学習データにより生成された)モデル」が重要であった。適切なデータを利用して適切に学習させないと、例えば、データの持つバイアスが原因となって、差別を生むような結果(採用AIなら、男女差別が含まれた既存の従業員のデータを読み込ませることで男女差別を再生産する等)が生じてしまう。
第3段階、即ち、生成AIの時代になり、「プロンプト」が重要となった。一般的な状況で良い回答を生成するモデルを構築しても、それに対して問題あるプロンプト・指示が入力されれば、問題のある結果が生成される。そこで、利用規約で問題のあるプロンプトを禁止する、問題のあるプロンプトをブロックする、問題のあるプロンプトを予測して(マスタープロンプト等により)適切な反応をさせる、(例えば問題のあるプロンプトにより)生成された問題のある生成内容に対してフィルターを掛けて表示させないようにする等のAIアラインメント・ガードレールが重要である。
第4段階、即ちRAGの時代は「投入データ」の時代であり、例えばナレッジマネジメントなら、そのナレッジとしてどのようなデータを検索して投入するかが品質を左右する。なお、トークンの制約が少しずつ緩むにつれ、より多くのデータを検索せず投入するロングコンテキストも増加しているが、そのような投入データが重要なことに変わりはない。
そして、第5段階、即ち(生成)AIエージェント時代は「プロセス設計」の時代である。つまり、AIエージェントに「勝手気まま」に振舞わせても、決して良い結果にはならない。例えばAIエージェントを利用して契約業務を支援させるのであれば、契約業務プロセスを定義して、その中で、「どこでどのようにAIエージェントが振る舞うか」を規定するべきである。例えば、依頼受付・プレイブックの提案・人間の担当者によるプレイブックの決定・AIエージェントによるプレイブック機械的適用結果の提示・人間の担当者の確認・AIエージェントによるレビュー結果の要約・人間の担当者の確認・依頼部門への返送と言ったプロセスを定義し、これらのプロセス全体として人間が確認・検証をした、信頼できるものとしていく5。
このように、AIエージェント時代、AIガバナンスの姿は大きく姿を変えていく。以下ではこのことを前提にAIベンダ、ユーザ、及び、AIエージェントと対峙する企業に分けて留意点を解説していこう。
4)なお、例えば、その生成AIエージェントが、データによって学習したモデルを利用し、プロンプトと投入されたデータに基づき作動するものであれば、ある意味では、第2段階から第5段階までの全ての点に留意する必要があるだろう。筆者の趣旨は、それぞれの段階ごとに、新たなガバナンス上のターゲットが生起し、その相対的重要性が高まっている、ということである。
5)那須翔「金融分野におけるAI利活用」ジュリスト1616号(2025年)39頁注26は、「従来型 AIにおいては、モデルの品質が重要であり、そのためには、学習データや処理(入力) データの品質が重要であったが、エージェンティック AIにおいては、モデルの挙動は主としてプロンプトに依存するため、プロンプトの適切性が重要になる。」とする。もしそれが第5段階にこそプロンプトが重要だ、という趣旨であればミスリーディングさが否定できないものの、第2段階までと第3段階以降で断絶があり、第3段階以降は指示や設定等の従前と異なる内容が新たに重要となる、という趣旨と善解可能である。
Ⅲ AIベンダの留意点
AI(エージェント)ベンダとしては、自社のAIエージェントをコントローラブルなものとし続けることが重要である。即ち、AIエージェントは、ユーザになり変わって様々な対応を行うことから、商品を購入する権限やサイト上にプログラムを公開する権限等、強い権限が付与されることが前提となる。そこで、様々な理由(AIの誤作動、ハッキング等)でAIエージェントがコントロールを失うと、ユーザに損失(意図しない取引による損失、データ漏洩等)が発生してしまう。だからこそ、ベンダかユーザ(又は双方)がコントロールを持つ必要がある。
適切なセキュリティ対策が講じられていることを前提に、例えば必要なタイミングで必ずユーザの確認・承認を求めること、一定範囲を逸脱する(例えば乗っ取られた場合に起こるような)行動ができないようにすること、ユーザが異常を検知した場合の緊急停止(キルスイッチ)等が考えられる。そのようなコントロール確保はベンダとユーザの共同作業によって行われる以上、ベンダとしては、ユーザのなすべき役割等を明確に伝えなければならない。
ここで、2025年のAIエージェントに「勝手」にやらせると、正直なところ「とんでもない」ことをする可能性が否定できない。読者の皆様も、ChatGPTのエージェント機能を試された方もいるかもしれないが、「何でこの手順を踏むのか??」と思わざるを得ないような「不器用」なやり方を選ぶことが多い。だからこそ、2025年時点では、AIエージェントの自律的判断に委ねるのではなく、一定のプロセスを設計し、その「幅」の範囲でAIエージェントに動いてもらうことが、少なくとも短期的にコントロールを確保する上で重要である。まさに上記2で契約業務へのAIエージェントの利用方法を例示して述べたとおりの、適切なプロセス設計こそが、2025年時点で一定以上実務において有用なAIエージェントを構築するベストプラクティスの一例といえよう。
今後は、更に技術が発展し、事前にAIエージェントの行動の幅を狭い範囲へと縛らなくても良くなるかもしれない。例えば昔はタクシーで「ナビ通りで」というと、地元の人なら絶対選ばないようなとんでもない道を選ぶことも多かったが、現在はかなり改善が見られるようになり、「ナビ通り」を選ぶ人も増えているのではないか。AIエージェントにおいても同様の発展が見込まれる。もっとも、それはますますAIエージェントに大きな裁量や権限が与えられるということをも意味するのであって、それが例えばハッキングされた場合の危険が大きくなるとも評価できるのであって、セキュリティ等の観点からは、なお、コントロール確保が必要である。
Ⅳ ユーザの留意点
ユーザとしては、エージェントがそのような「安心安全」なものかを確認して利用すべきである。そして、ベンダとして一定以上のコントロールを確保しているものであっても、ユーザ側でなすべき対応はゼロとならない。その意味ではユーザのリテラシーとして、ユーザ側がコントロールを確保するため必要な対応、例えば承認・緊急停止等を確認し、それを実践することが必要である。
また、ユーザの中でどこまで業務プロセスを明確に定義しているか、というようなこれまでの業務の体系化や暗黙知の形式知化の程度がAIエージェントの使いこなしに影響する。例えば、上記の契約審査の例でいえば、自社の業務プロセスが標準化され、業務が属人化していなければ、まさにそのプロセスに乗せてAIエージェントに業務を支援してもらうことができる。例えば、自社が既に(よくレビューする類型の契約について)プレイブックを準備していれば、契約業務に関するAIエージェントの支援を受けた契約審査がかなり有用なものと想定される反面、そのような準備がない企業の場合は、AIエージェントによる効率化・高度化の恩恵は限定的かもしれない6。
6)これは、「AI化の前にIT化、IT化の前に標準化」という昔からある話のAIエージェントバージョンと言えるかもしれない。
Ⅴ AIエージェントと対峙する企業の留意点
1 AIエージェントを受け入れるべきか?
(1)世の趨勢 vs 断固拒否
今後ますます多くのユーザが、AIエージェントを利用して自分の代わりにやり取りをさせようとする。例えば、EC企業においては、2025年現在ユーザが人間であることを当然の前提としてユーザインタフェース・ユーザ体験(UI・UX)を最適化させている。しかし、2030年には場合によってはその半分以上のユーザがAIエージェントを通じてやり取りを試みてもおかしくない。
このような状況において、一つの考えは「世の趨勢」としてAIエージェントの来訪を受け入れるというものである。もしアクセスの半数がAIエージェントからとなれば、世の趨勢を拒否することで売り上げが半分になる可能性がある。これに対し、AIエージェントを受け入れることに問題があるとして、これを拒否する動きもある。例えば2025年11月には、大手ECサイトが米国において、そのAIエージェントが不正な買い物をしているとしてPerplexityを提訴したことが大きな話題となった。
(2)拒否側にも相応の理由があること
確かに、AIエージェントの来訪を拒否をするという考えにも相応の理由がある。つまり、AIエージェントを野放しにすると、企業とユーザ双方に被害を与える可能性がある。
まず、企業の受ける被害という観点では、従来からいわゆる「bot」による抽選で購入できるイベントのチケットや限定商品等に対する不正な大量応募や、スクレイピング、リバースエンジニアリング、不適切なAPIの利用等、「ソフトウェア」による訪問等がもたらしえる害悪が存在した。そこで、昔から、これに対する利用規約上の対抗や、アーキテクチャによる対抗等の対抗を行っていた。皆様がサイトを閲覧した際、「あなたはロボットではありませんか?」というページが表示されたことがあるのではないか。これがその対抗策の一例である。AIエージェントも、使い方次第ではそれと同様の問題をもたらし得る。また、ユーザの反応を元にフィードバックをかけてユーザ体験を改善しようにも、エージェントの挙動がノイズになるかもしれない7。
また、そのAIエージェントが不適切なものであれば、ユーザの想定と異なる商品を又は想定と異なる価格で購入してしまう、安全性が低いエージェントにクレジットカード番号を渡して漏洩する、権限を与えたエージェントが乗っ取られて勝手に高額の売買を行う等、ユーザに被害を与える可能性もある。
7)リコメンドした商品のクリック率が例えば10%のリコメンドアルゴリズムでも、AIエージェントがユーザの半分を占めれば、クリック率は5%へと半減するかもしれない。例えばクリック率が10%あれば良いアルゴリズムと判断する場合、実際にはとても良いアルゴリズムであっても、AIエージェントが利用されたために「悪いアルゴリズム」という誤った評価をしてしまい、適切なフィードバックをかけられず、ユーザ体験改善がうまくいかなくなるかもしれない。
(3)適切な制約による不利益最小化の可能性
昔から検索エンジンはクローリングといってインターネットの各サイトを訪問して検索結果に搭載してきた。そして、robot.txtという書式を使うことで各サイトは、この範囲ではクロール(検索結果への搭載)が可能、これを超えたら不可能等という指示を出していた。
これをAIエージェントに応用すれば、セキュリティ等に関するAIエージェントが一般に満たすべき規格・基準に合意した上で8、それぞれのサイトが、当該規格・基準に準拠するAIエージェントに対して一定の書式(robot.txt類似のもの)で「このサイトではこの範囲での挙動のみを許す」等を定めてそれに従わせることが1つの解決になり得る。そのような時代においては、拒否よりも、AIエージェントによる訪問を前提としたその挙動の規定(コントロール)やAIエージェントのエラーによる問題に関する免責条項を含む利用規約上の対応が必要となるだろう。
但し、そのような方法でも対応できない問題が残る個別サイトがあれば、そのサイトは(売上減少等のリスクはあるものの)AIエージェントによる訪問を拒否することになるだろう。
8)利用規約で対応することを考えれば、当該AIエージェントが当該サイトを訪問して行う全ての行為について、利用規約がユーザを拘束することも、その許容可能なAIエージェントの条件となり得るだろう。
2 自由と制約のいずれが消費者保護に資するか
筆者はブレインテックによるエンハンスメントと消費者保護に関する論文を公表しているが9、AIエージェントも一種の消費者に対するエンハンスメント・エンパワーメントとなり得る。その中で、どのようにAIエージェントを規律することが、真の消費者保護に資するかは興味深い問題である。
例えば、サイト側、例えばECサイトが有力なAIエージェントと提携して「この類型の商品の売買ならこのECサイトを優先的に利用する」ことを実現するとしよう。それは、ある意味では、AIエージェントとしてECサイト間の価格の比較をせず、仮に他のサイトに比べて当該サイトの価格が高い場合でも、AIエージェントにそのサイトから商品を買わせることにつながり、消費者の保護に反する、という考え方は1つの考え方である。
しかし、もし価格を比較して一番安いサイトから買うとなれば、ある意味ではAIエージェントが「価格だけが安いが粗悪品や偽造品・模造品を放置しているサイト」から購入しやすくなり、消費者トラブルを誘発するこいとになるだろう。既に生成AIにおいては、SEO(検索エンジン最適化)から派生して、LLMに対して誘導を行い、AIが、例えば「交通事故分野の弁護士といえばX弁護士」と回答しやすくなるような対応をする、LLMO(LLM最適化)が行われているが、今後はAIAO(AIエージェント最適化、AI Agent Optimization)をしてAIエージェントが選びたくなるようなサイトに誘導する等、ある意味では、「テクニックに走ったサイト」にAIエージェントが翻弄される可能性があるところ、それが本当に消費者の利益に合致するのか、という問題もある。むしろ、一定の信頼できるサイトのみを訪問するAIエージェントの方がずっと消費者保護に資するという考えもある。
この辺りは、例えば口コミ等を踏まえて詐欺率を判定する10等の技術的対応や、「消費者保護に資するAIエージェントが消費者から選ばれる」という市場による対応、そして、AIベンダが消費者保護という意味においても責任ある形で倫理的AIエージェントを提供するという社会規範による対応もあり得るが、法的対応も考えられる。その際には、審査により良質なアプリのみが提供される状況を実現したいスマホアプリストアプラットフォーム事業者と、自由にアプリを提供したいアプリ提供事業者の利害対立の間で、スマホ法(スマートフォンにおいて利用される特定ソフトウェアに係る競争の促進に関する法律)がルールを定めていることから、このような先例も参照して検討を重ねていくべきだろう11。
9)松尾剛行=柳池直輝「ブレインテック・ニューロテックと消費者法:ニューロマーケティング時代の消費者法のパラダイムシフトのあるべき方向性を模索する」 一橋研究50巻2号 (2025)49頁 https://hit-u.repo.nii.ac.jp/records/2061086
10)星5つと星1つの双方が多いところは、もしかすると星5つをサクラレビューで稼いでいるだけで星1つが本当の購入者の感想かもしれない等の判別方法があるとされる。
11)但し、スマホ法はサイドローディングが本質というよりは、アプリ外課金に対する制限をなくするところが本質と評価した方が正確かもしれない。
3 企業側もAIエージェントでユーザ対応を行う時代に
将来的には、企業側もAIエージェントでユーザ対応を行う時代になるだろう。つまり、ユーザのAIエージェントが企業のAIエージェントと直接交流し取引をしていく。このようなAIによる取引については、既に書籍において詳述したところであるが12、人間の勧誘を規制する消費者法、例えば消費者契約法4条は、将来的にはAIエージェントを利用した勧誘の規制へと変わっていく等、AIエージェント時代に対応したものとなっていくだろう。
企業は、このようなAIエージェント時代に対応すると共に、それに応じて進化し続ける法の最新状況をも注視すべきである。
最後に、筆者は2025年11月に、東洋経済様及び弁護士ドットコム様の「企業法務弁護士ランキング」でAI・IT部門第1位に選んで頂いた。これは、依頼者の方、国際商事法研究所様をはじめとする筆者にAI・ITに関する発信をさせて下った皆様、本連載を含む筆者の著作の読者の方、投票をして下さった方、その他多くの関係者の皆様のお陰である。心より感謝の意を表したい。
12)松尾前掲書328頁以下

<筆者プロフィール>
松尾剛行(まつお・たかゆき)
桃尾・松尾・難波法律事務所パートナー弁護士(第一東京弁護士会)・ニューヨーク州弁護士、法学博士、学習院大学特別客員教授、慶應義塾大学特任准教授、AIリーガルテック協会(旧AI・契約レビューテクノロジー協会)代表理事。Business Lawyer Award 2025(情報発信部門)受賞

