今回の確認では、Trustworthy AIをめぐる各国・各機関の政策フェーズが、かなりはっきり分かれてきた。OECDは定義や原則の再改定よりも、各国の政策情報を継続的に整理する基盤としての役割を強めている。EUはAI Actの法文そのものより、実装に必要な標準化、コード、ガイダンス整備が前面に出ており、制度は立法段階から実装段階へ移っている。韓国はAI Basic Actが施行段階に入り、透明性・高影響AI・影響評価といった運用ルールの公開が進んだ。カナダはDirectiveそのものの大きな再改定は確認できなかったが、政府内のAI戦略、AI Register、部門別の責任整理が厚くなっている。日本はMETIのAI事業者ガイドライン自体には大きな版更新が見えない一方、デジタル庁による政府内実装の工程が具体化した。
本稿は、指定された公式ソースを中心に、2026年3月16日時点で公開確認できた一次情報をもとに整理している。変更が見当たらない箇所は、その旨を明記した。なお、EUの「EU AI Act」特設サイトは制度理解に便利な整理サイトとして参照しているが、法的な原本確認は欧州委員会側のページを優先した。
OECD
OECDについては、今回の確認でもAI定義やTrustworthy AIの定義そのものに大きな更新は見当たらなかった。引き続き中核にあるのは、2019年採択・2024年更新のOECD AI Principlesであり、Trustworthy AIは「革新的で信頼でき、人権と民主的価値を尊重するAI」という軸で整理されている。今回の確認では大きな変更なし、と見てよい。
ただし、動きが止まっているわけではない。むしろOECDは、原則論の追加よりも、各国政策を比較・追跡しやすくする基盤整備を強めている。OECD AI Policy Navigatorは、80超の法域・国際機関の政策や制度を扱うライブ型のデータベースとして運用されており、各国の公式連絡窓口やOECD.AI側の専門家が継続的に更新する構造になっている。ここは地味だが実務上かなり重要で、制度比較の作業コストを下げる、いわば政策インフラの役割を担っている。
直近では、OECDが2026年3月20日締切で「Governing with Artificial Intelligence」のグローバル募集を続けており、政府内AIのユースケース、政策・ガバナンス施策、リスク評価やバイアス低減などの実装ツールを集めている。これは新たな法制度ではないが、Trustworthy AIを政府実装の文脈で具体化するための国際連携の動きとして見ておくべきだろう。
EU
EUは、今回の定点観測でもっとも「実装段階に入った」ことが明確だった地域である。AI定義やリスクベースの基本構造自体は大きく変わっていないが、AI Actの適用スケジュール、標準化、補助的コード、実務ガイダンスの整備がかなり具体化している。
制度の現在地
AI Actはすでに発効しており、2025年2月には禁止行為とAI literacy要件が適用開始済み、2025年8月にはGPAIモデル関連やガバナンス関連の規定が動き始めている。現在の焦点は、2026年8月以降に本格適用される残りの規定を、事業者と当局がどう実務に落とし込むかに移っている。
直近の更新
欧州委員会のAI政策ページでは、2025年11月19日にDigital Simplification Packageの一部としてAI Actのターゲット改正提案が示されており、実装を簡素で分かりやすいものにする方向が打ち出されている。さらに、標準化に関するページでは、高リスクAIの一部について、関連する標準や支援ツールの整備状況に応じて適用タイミングを連動させる考え方が明示されている。法が先に立ち、運用が後から息切れする――というありがちな筋の悪い展開を避けたい意図が透けて見える。
加えて、2026年3月5日にはAI生成コンテンツの表示・ラベリングに関するCode of Practiceの第2次案が公表された。ここでは、Article 50に基づく透明性義務をめぐり、マーク付け、メタデータ、水準の異なる識別方法、EU共通アイコンの例示、創作物や風刺表現への扱いなどが整理されている。意見募集は2026年3月30日までで、最終化は2026年6月初めが予定されている。透明性義務の適用開始は2026年8月2日だ。
国際連携
EUはAI Officeを軸に、OECD、G7、G20、国連、Council of Europe、NAAIMESなどとの連携を明示している。つまりEUは、EU域内の制度だけで完結するつもりではなく、自らの実装経験を国際標準形成に接続する構えを強めている。Trustworthy AIの定義面で新語を増やしているわけではないが、「実装手順まで含めて輸出可能な制度」に近づけようとしている点が、今回の観察では印象的だった。
韓国
韓国は、今回の確認対象の中で、法制度のステージがもっとも明快に進んだ国の一つである。AI Basic Actは2026年1月22日に施行され、施行令も同日に発効した。つまり、検討や法案段階ではなく、すでに施行段階に入っている。
制度の現在地
MSITの説明では、この法律はAI産業の振興と、安全で信頼できる基盤の整備を同時に狙う枠組みとして位置づけられている。国家AIガバナンスとして大統領直属の戦略委員会やCAIO体制を制度化しつつ、透明性、安全性、高影響AI、影響評価といった実装論点を施行令とガイドラインで具体化している。韓国らしく、推進と統制を一体で並べてくる設計だ。
直近の更新
2025年11月12日から12月22日にかけて施行令案の立法予告が行われ、2026年1月22日に法と施行令が発効した。その後、同日付で支援デスク側に透明性・安全性・高影響AIの判断・事業者責務・影響評価の主要ガイドラインが掲載されている。さらにMSITは2026年2月25日に透明性ガイドラインの公表を正式に発表しており、AI生成コンテンツ、とくにディープフェイクについて、利用者が識別しやすい形での表示を求める方針を具体化した。
ここで実務上のポイントは二つある。第一に、生成AIコンテンツの表示義務について、サービス環境内に留まる出力と、ダウンロード等で外部流通する出力を分けて考えていること。第二に、韓国国内の利用者にAI製品・サービスを直接提供する海外企業も対象に含めると整理していることだ。国内法の運用だが、実質的には域外適用の含みを持つ設計になっている。
スケジュールと移行措置
もっとも、施行と同時に全面執行というわけではない。MSITは少なくとも1年のグレースピリオドを設け、事実調査や過料賦課は原則として猶予すると説明している。重大な生命被害や人権侵害などの例外はあるが、基本的には企業の準備期間を確保しながら、支援デスクとガイドラインで不確実性を下げる運用になっている。制度のステージは施行済みだが、実務上は移行期間のただ中、という理解が正確だ。
カナダ
カナダでは、今回確認した範囲でDirective on Automated Decision-Makingそのものの新たな改正文は見当たらなかった。したがって、Directiveの法政策的な中身については「今回の確認では大きな変更なし」と整理できる。一方で、運用面のツール、ガイド、戦略、公開レジストリは着実に前進している。
制度の現在地
カナダの政府AIガバナンスは、依然としてDirective on Automated Decision-Makingが背骨である。このDirectiveは、行政上の意思決定またはその評価を支える自動化システムに適用され、AIだけでなく、ルールベース、統計モデル、生成AI、機械学習など幅広い自動化を含みうる。つまり、「AIだけを特別扱いする」のではなく、「行政判断を代替・補助する自動化」を横断的に押さえる設計だ。
直近の更新
2026年2月には、Responsible use of artificial intelligence in governmentの統合ページが更新され、連邦公務向けAI Strategy 2025-2027とDepartmental AI Responsibilitiesが前面に出た。AI Strategyの概要ページ自体の更新日は2026年2月25日であり、政府内での責任あるAI活用を単なる試行から恒常的なガバナンスへ移す意図が見える。また、2025年11月には連邦政府のAI Registerが公開され、政府内でどのようなAI利用が行われているかを対外的に示す枠組みが動き始めた。
実装ガイドも地味に効いている。Algorithmic Impact AssessmentはDirectiveを支える必須のリスク評価ツールとして維持されており、影響度に応じて必要な措置が段階的に決まる。さらに、Peer Reviewガイドでは、一定以上のインパクト水準の案件について、レビューの公表まで含めた手順が整理されている。これは「信頼」を空中戦で終わらせず、文書化・評価・公開の流れに落としている点で実務的だ。
パブリックコメントと今後
2024年に実施された連邦公務向けAI戦略の意見募集については、2025年1月末に “What We Heard” が公表され、その後のAI戦略整備につながっている。今回の確認では新たな意見募集は確認できなかったが、戦略、Register、責任整理、リスク評価ツールの更新を見る限り、カナダは新法競争よりも、行政内部の運用統治を磨き込むフェーズに入っていると読める。
日本
日本は、指定ソースの中でやや二層構造になっている。ひとつはMETIのAI事業者ガイドライン、もうひとつはデジタル庁による政府内AI実装である。今回の確認では、前者は安定、後者は前進、という整理がもっとも実態に近い。
METI:AI事業者ガイドライン
METIのAI事業者ガイドライン掲載ページでは、現時点でも第1.1版が最新版として掲示されており、掲載ページの最終更新日は2025年4月4日となっている。このため、指定ページ上で確認できる限りでは、AI定義やTrustworthy AIの考え方を大きく組み替えるような新版公開はまだ確認できない。今回の確認では大きな変更なし、でよい。
ただし、水面下で議論が止まっているわけでもない。METI関連の検討資料では、AIエージェントの動向を踏まえたAI事業者ガイドライン更新の検討に触れており、生成AIからエージェント型AIへ論点がずれてきた現実を受けて、将来の更新余地が示唆されている。正式版はまだ動いていないが、次の更新波はこのあたりから来る可能性が高い。
デジタル庁:政府内AI実装
一方で、デジタル庁側はかなり動いている。2026年3月6日の公表では、政府職員約18万人を対象としたガバメントAI「源内」の大規模実証を、2026年5月から2027年3月まで実施する予定が示された。背景には、2025年12月23日閣議決定の人工知能(AI)基本計画があり、政府自らが先導的にAIを利活用し、最終的にはAIの信頼性と透明性の確保につなげるという方針が明記されている。
ここで注目すべきなのは、日本のTrustworthy AIが、事業者向け一般ガイドラインだけでなく、政府実装そのものを通じて社会的な信頼を示そうとしている点である。デジタル庁の資料では、行政実務用AIアプリの内製、政府共通データセット整備、国産LLM支援、他府省庁への技術支援までが並列で語られており、単なるPoCでは終わらせない設計が見える。制度のステージで言えば、民間向けルールは安定運用、政府利用は実装加速、という二層構造だ。
今回の観察から見えること
今回の定点観測を通して見えてくるのは、Trustworthy AI政策が「定義を掲げる時代」から「実装をさばく時代」へ移っていることだ。OECDは比較可能な政策データベースを整え、EUは標準化・コード・執行体制を厚くし、韓国は法律施行と詳細ガイドラインを出し、カナダは行政内部の責任・公開・評価を磨き、日本は政府利用の実装工程を前に出している。
言い換えると、いまの差は「Trustworthy AIを唱えているかどうか」ではなく、「誰に、どの段階で、どの文書で、どの評価手順を要求するか」がどこまで具体化しているかにある。派手な新語より、地味な運用文書のほうが制度を動かす。政策の世界はしばしばそういう、見た目より泥くさい生き物である。