Dandy-Code

男目線のライフ情報!パパ活アプリ情報など… 毎日更新!

AIが”法律を書く日”は来るのか?政治が恐れるアルゴリズムの支配

AIが"法律を書く日"は来るのか?政治が恐れるアルゴリズムの支配






AIが”法律を書く日”は来るのか?政治が恐れるアルゴリズムの支配


AIが”法律を書く日”は来るのか?
政治が恐れるアルゴリズムの支配

2026年4月の夜、私はあるテキストを読んでいた。
EU AI法の原文だ。PDFを開いたのは初めてだった。恵比寿のマンション、卓上ランプの黄色い光が手元を照らしていた。スクロールしながら、ある事実に気づいた。この法律の草案作成に、AIによる法令比較分析が使われていた。

AIを規制するための法律を、AIが補助して書いた。

コーヒーカップを置く音だけが、静かな部屋に響いた。

この構造を、私はどう呼べばいいのか。矛盾なのか。必然なのか。その問いに答えが出ないまま、時計は深夜を過ぎていた。

AIが法律を書く日

2026年4月、恵比寿のマンション。卓上ランプの下で読むEU AI法の原文(イメージ)

1. 深夜に見つけた、空洞

2025年の初春。
私はクライアントの新サービス設計を手伝っていた。採用プロセスにAIの推薦システムを組み込むという案件だった。目黒のオフィスで、MacBook Proのスプレッドシートを埋めながら、私は「リスク評価」の欄を飛ばした。

「専門家に後で確認すればいい」という判断だった。

3週間後、法務担当者から一言が来た。「このシステム、EU AI法の高リスクカテゴリーに該当する可能性があります」。EU AI法では採用・人事管理に使われるAIシステムは高リスクに分類され、厳格なガバナンス要件が課される。

私はその言葉の意味を、すぐには理解できなかった。

理解できなかったのは、EU AI法を一行も読んでいなかったからだ。リスク評価の欄を飛ばしたのは怠慢ではなく、無知だった。その違いは小さいようで、結果においてまったく同じだ。プロジェクトは設計を大幅にやり直し、2か月の遅延が生じた。

手間をかけて確認することを省いた代償が、静かに、しかし確実に現れた。

政治が恐れるアルゴリズムの支配

目黒のオフィス。リスク評価欄を飛ばした夜(イメージ)

2. 規制を書く側に回ったアルゴリズム

その失敗の後、私はEU AI法の成立過程を調べた。
欧州委員会が2021年4月にAI法案を発表して以降、交渉が難航。最終的に合意に至った。

日本では2025年9月、「人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)」が全面施行され、同年12月には「人工知能基本計画」が閣議決定された。生成AIと知的財産に関するソフトローも公表されるなど、企業の自主的取組みを前提としたガバナンス強化が求められている。

日本・EU・韓国・台湾が2025〜2026年に相次いでAI法を施行するという現実は、偶然ではない。AIの展開速度が、人間の立法速度を上回りつつある。法律が技術に追いつくために、立法者はAIの補助を求めた。

AIを規制するために、AIが法律を書く。

その循環が始まった時点で、「誰が書いたか」という問いは、もはや単純ではなくなった。

政治が恐れるアルゴリズムの支配

AIが法律の草案を補助する時代(イメージ)

■ EU AI法のリスク分類(主なポイント)

リスクカテゴリー 主な内容 適用時期(2026年4月時点)
禁止(Unacceptable Risk) ソーシャルスコアリングなど 2025年2月適用済み
高リスク(High-Risk) 採用・人事、信用評価など 2026年8月全面適用予定
GPAI(汎用AI) 透明性・文書化義務 2025年8月適用済み
限定・最小リスク 透明性義務(チャットボットなど) 段階的適用

EU AI法の4つのリスク分類と適用状況(2026年時点イメージ)

3. 「最終サイン」の意味を教えた男

2025年の晩秋、丸の内の小さな会議室。
企業法務を専門とする弁護士、54歳と話す機会があった。窓の外に皇居の森が見えた。暖房の乾いた空気の中、彼はLAMYのボールペンを手に持ちながらこう言った。

「AIが法律の草案を書く時代に、弁護士の仕事は変わりません。変わらないのは、その草案に責任を持つ人間が必要だからです」

EU AI法違反に対する罰則は最大3,500万ユーロ、または全世界年間売上高の7%だ。「知らなかった」は免罪符にならない。

「7%」という数字を、彼はRHODIAのノートに書いた。全世界売上高の7%。大企業に当てはめれば数兆円規模だ。

「AIが草案を書いても、罰則を受けるのは人間の組織です。だから最終サインを押せる人間の価値は、AIが高度化するほど上がる」

その言葉が、腑に落ちた。

2026年4月時点、EU AI法では禁止事項とGPAI義務はすでに適用済みで、企業は高リスクAIの全面適用(2026年8月)に向けた準備を進めている段階だ。

適用まで、あと4か月を切っていた。

政治が恐れるアルゴリズムの支配

丸の内の会議室。「最終サイン」を押す人間の価値を語る弁護士(イメージ)

4. 原文を読んだ、3時間の重さ

帰宅後、私はEU AI法の原文をPDFで開いた。
数百ページある。だが「禁止されるAIの用途」「高リスクAIの定義」「透明性義務の範囲」という三点に絞れば、自分のビジネスに関わる部分は30ページ程度に絞れた。

3時間かかった。

だがその3時間で、採用システムが高リスクに該当する理由が初めて自分の言葉で説明できるようになった。1年前に「リスク評価」の欄を飛ばした私とは、別の人間になっていた。

なぜ手間が大切か。それは、法律を「知っている」状態と「読んだことがある」状態の間に、深い溝があるからだ。

日本のAI法は罰則を伴わない枠組みを採用しており、イノベーションを阻害しないことに配慮しつつ、生成AIの悪用に対する行政関与を可能とする点に特徴がある。

日本の法律が「罰則なし」だからといって、EU域外適用の問題は消えない。EU AI法は域外適用の効果を持ち、EU市場に影響を与えるAIシステムを開発・提供する日本企業も対象となりうる。

「日本の法律だけ見ていれば大丈夫」という思い込みが、最も危険な空白だ。

政治が恐れるアルゴリズムの支配

数百ページの原文を読み込む夜(イメージ)

5. 政治が恐れているもの、本当のところ

2026年4月、恵比寿のカフェ。
朝の光が窓から差し込んでいた。ニュースフィードに「トランプ政権、州のAI規制を連邦で統制へ」という記事が流れていた。米国ではトランプ政権がAI開発とイノベーションを重視する方向に転換し、AIに対する規制は実質的に緩和される見通しで、その影響でEUも規制を緩和する方向に動きつつある。

規制を緩和する。強化する。主導権を握る。それはすべて、「誰がルールを書くか」という権力の問題だ。

AIが法律を書く補助をする限り、その法律は「AIが理解しやすい構造」に引き寄せられる。人間の感情や文脈や例外を盛り込むことが、アルゴリズムには苦手だ。法律がアルゴリズムの得意な形に最適化されていくとき、人間が生きる現実との乖離が静かに広がる。

政治が恐れているのは、AIが法律を書くことではない。AIが書いた法律を、誰も読まなくなることだ。

政治が恐れるもの

恵比寿のカフェ。アルゴリズムの支配を考える朝(イメージ)

「読む人間」が、アルゴリズムを支配する側に立つ

今日からできることを、三つだけ言う。

一つ目、自分のビジネスに関係するAIシステムがEU AI法の4つのリスクカテゴリー(禁止・高リスク・限定リスク・最小リスク)のどれに当たるかを、今週中に一次情報で確認する。要約ではなく、原文の該当箇所を30分だけ読む。

二つ目、AIが生成した文書や提案に自分の名前でサインするとき、その内容を相手に口頭で説明できるかを確かめる習慣を作る。説明できない文書には、サインしない。それが「最終責任を持つ人間」の最低条件だ。

三つ目、2026年は日本AI法・EU AI法・韓国AI基本法・台湾AI基本法が同時に施行・適用される「AI法元年」だ。この地図を持っている人間と持っていない人間の差は、1年後に静かに、しかし確実に現れる。

AIが法律を書く日は、もうここにある。

その法律を読める人間だけが、アルゴリズムの支配を受けずに、その上に立てる。