2026年3月7日時点:OECD・EU・韓国・カナダ・日本の現在地を読む
AIをめぐる政策議論は、抽象的な理念の段階から、制度設計・運用・監査の段階へと移っています。「Trustworthy AI」という言葉そのものを前面に出す国もあれば、「責任あるAI」「安全・安心なAI」「透明で公正な自動意思決定」といった表現で進める国もあります。ただし、共通しているのは、AIを単なる便利な技術として扱うのではなく、透明性、公平性、安全性、説明責任をどう制度へ落とし込むかが主戦場になっている点です。
Trustworthy AIは、もう理念だけでは済まない
本日時点で各国の動きを整理すると、Trustworthy AIは「望ましい価値観」の話から、「誰が責任を負うのか」「どのような説明を求めるのか」「いつから義務化されるのか」という運用設計の話へ移っています。各国で表現は異なりますが、AIの社会実装にあたり、信頼性・安全性・透明性・公正性・説明責任を制度として定着させようとする流れは明確です。
この全体像を横断的に把握する起点として、最も使いやすいのが OECD.AI です。OECD はAI原則を公表し、それを各国政策の比較に使える形で整理しています。各国の定義や施策をざっと見渡すには、まず OECD.AI を起点にし、その後に各国の公式サイトへ降りていく流れが実務的です。参照:OECD AI Principles(https://oecd.ai/en/ai-principles)、OECD.AI Policy Observatory / National AI Policies(https://oecd.ai/en/dashboards/national)
OECDは各国比較の「座標軸」として有効
OECD の役割は、各国に直接義務を課すことではありません。むしろ、各国がAI政策を設計する際に参照しやすい共通の枠組みを示すことにあります。Trustworthy AI を単一の法律で定義するのではなく、共通原則として各国の制度設計に反映させるための座標軸として機能しています。
このため、「どの国がTrustworthy AIをどう定義しているのか」をざっと掴むには OECD.AI が最も見やすく、「その国が今どの段階にあるのか」を厳密に見るには、その先で各国官庁のページを読むのが正攻法です。政策監視の世界では、ここを飛ばしていきなり細部へ入ると、森を見ずに枝葉だけ追いかけることになりがちです。
EUは、理念をもっとも明確に制度へ押し込んだ
EUは Trustworthy AI をもっとも明確に制度化した法域です。2019年に公表された Ethics Guidelines for Trustworthy AI では、人間の主体性と監督、技術的堅牢性と安全性、プライバシーとデータガバナンス、透明性、多様性・非差別・公正性、社会・環境的福利、説明責任という7つの要件が整理されました。これは、AIの信頼性を単なる安全性や精度だけでなく、ガバナンス全体の束として捉えている点で重要です。参照:European Commission – Ethics guidelines for trustworthy AI(https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai)
その後、EUはこの理念を AI Act へ接続しました。AI Act は2024年8月1日に発効し、禁止AI慣行とAIリテラシー義務は2025年2月2日から、GPAI(汎用AI)関連の義務とガバナンス規則は2025年8月2日から、全面適用は2026年8月2日とされています。さらに、一部の高リスクAIシステムには2027年8月2日までの延長移行期間があります。EUの特徴は、理念を標語で終わらせず、適用日付きの制度へ落とし込んだところにあります。参照:European Commission – Regulatory framework proposal on artificial intelligence(https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)
本日時点では、EUは「法律を作って終わり」の段階ではありません。AI生成コンテンツの表示やラベリングに関する Code of Practice の整備など、事業者が実際にどう適合していくのかという実務設計が進んでいます。週次監視の対象として見るなら、EUは法そのものよりも、周辺ガイドライン、FAQ、実務コード、解釈文書の更新が非常に重要です。
韓国は、Trustworthinessを法制度の中心に据えた
韓国は、Trustworthy AI をかなり正面から法制度に組み込んでいます。科学技術情報通信部(MSIT)は、AI Basic Act を Basic Act on the Development of Artificial Intelligence and the Establishment of Foundation for Trustworthiness と位置付けており、2026年1月22日に施行されたと公表しています。法の名称レベルで「信頼の基盤」が明示されている点は、かなり特徴的です。参照:MSIT – Korea enforces AI Basic Act to become AI G3(https://www.msit.go.kr/eng/bbs/view.do%3Bjsessionid%3DZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1214&sCode=eng)
もっとも、韓国は単純な規制強化路線ではありません。産業競争力を損なわないように「minimum regulation principle」を掲げつつ、AI倫理、透明性、安全性、高影響AIに関する実務義務を整備する方向です。つまり、育成と統治の両方を同時に走らせている構造です。現在地としては、法の施行は済み、ここから下位法令、ガイドライン、解釈運用がどこまで具体化されるかが監視ポイントになります。
カナダは、公的部門の責任あるAI運用で先行している
カナダは、包括AI法よりも先に、政府利用の統制と透明化でTrustworthy AIを具体化しています。中核にあるのは Directive on Automated Decision-Making であり、政府部門で自動意思決定を利用する際に、透明性、説明責任、公平性を確保することを求めています。影響評価、透明性の確保、品質の維持、救済の余地といった要素が明確に組み込まれており、非常に行政実務寄りです。参照:Government of Canada – Guide on the Directive on Automated Decision-Making(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-scope-directive-automated-decision-making.html)
さらに、カナダ政府は「Responsible use of artificial intelligence in government」のページで、生成AIの日常利用ガイド、部局別責任、AI Register、AI Strategy for the Federal Public Service 2025-2027 への導線をまとめています。AI Register の公開は、公共部門におけるAI利用の可視化という意味で非常に大きい動きです。行政がどこでAIを使い、どのような用途なのかを見える化し始めたことは、Trustworthy AIの実装段階として評価できます。参照:Government of Canada – Responsible use of artificial intelligence in government(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html)
監視対象として見ると、カナダの強みは「更新が見やすい」ことです。理念だけでなく、政府内部の運用ルール、登録制度、戦略文書が比較的追いやすく整理されているため、週次モニタリングとの相性が非常に良い国だといえます。
日本は、法の一本化よりも原則とガイドラインで固めている
日本は、EUのように包括AI法を前面に出しているわけではありません。土台にあるのは、2019年の「人間中心のAI社会原則」です。この文書では、AIの恩恵を最大化しながら負の影響を抑えるために、技術だけでなく、制度や社会全体をAI時代に対応させる必要があると整理されています。日本のTrustworthy AIは、まずこの人間中心原則から読み始めるのが筋です。参照:内閣官房 – 人間中心のAI社会原則(https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/aigensoku.pdf)
実務面の中心にあるのが、経済産業省の「AI事業者ガイドライン」です。METIの検討会ページでは、第1.0版が2024年4月19日、第1.01版が2024年11月22日、第1.1版が2025年3月28日と明示されており、日本が改訂可能なガイドラインを積み上げながら、AIガバナンスを実務へ落とし込んでいることが分かります。参照:経済産業省 – AI事業者ガイドライン検討会(https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html)
加えて、政府内部のAI利活用に関しては、デジタル庁の「先進的AI利活用アドバイザリーボード」が重要です。ここでは「信頼できるAI」のあり方、ガバメントAIの推進、行政の進化と革新のための生成AI調達・利活用ガイドラインの改定方向などが議論されています。日本の現在地は、民間向けにはMETIのAI事業者ガイドライン、政府向けにはデジタル庁の調達・利活用ガイドラインという二層構造で運用を固めている段階です。参照:デジタル庁 – 先進的AI利活用アドバイザリーボード(https://www.digital.go.jp/councils/ai-advisory-board)
本日時点で、優先的に見るべき論点
本日時点で、もっとも実務インパクトが大きいのはEUです。AI Actの主要な適用節目がすでに始まっており、2026年8月2日の全面適用へ向けて、透明性義務、GPAI対応、コード・オブ・プラクティスの整備が続いています。週次監視では、EU側のガイドライン、ドラフト、FAQ、実務コードの更新をもっとも重視すべきです。
その次に注視すべきは韓国とカナダです。韓国は施行済み法の運用細則がどこまで明確になるか、カナダは公共部門における責任あるAI運用がどこまで定着し、公開情報として可視化されていくかがポイントです。
日本については、派手な法制ニュースよりも、METIのガイドライン改訂履歴、検討会資料、デジタル庁の会議資料更新を丁寧に追うほうが本質に近いと考えられます。日本の政策は、巨大な一発法よりも、会議体、指針、改定版、実証、調達ガイドの積み上げで進む傾向が強いためです。地味な改定履歴ほど、あとで効いてくる。政策の世界は、見出しの大きさより、更新履歴の静かな一行のほうが怖いのです。
まとめ
Trustworthy AIは、すでに理念だけの言葉ではありません。OECDは各国比較の座標軸を整え、EUは理念を義務へ変え、韓国は信頼性を法制度の中心へ置き、カナダは公共部門で責任あるAIを可視化し、日本は原則とガイドラインで実務運用を詰めています。国ごとにアプローチは異なりますが、共通しているのは、AIの信頼性を「誰かの善意」に任せず、制度と運用に変えようとしている点です。
だからこそ、今後の監視では「Trustworthy AIという言葉があるかどうか」だけでなく、「その国が何を義務化し、何をガイドラインにとどめ、何を実務へ落としたのか」を見ていく必要があります。その差分の積み重ねこそが、各国のAI政策の本当の現在地です。
出典
- OECD AI Principles(https://oecd.ai/en/ai-principles)
- OECD.AI Policy Observatory / National AI Policies(https://oecd.ai/en/dashboards/national)
- European Commission – Ethics guidelines for trustworthy AI(https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai)
- European Commission – Regulatory framework proposal on artificial intelligence(https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)
- MSIT – Korea enforces AI Basic Act to become AI G3(https://www.msit.go.kr/eng/bbs/view.do%3Bjsessionid%3DZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1214&sCode=eng)
- Government of Canada – Guide on the Directive on Automated Decision-Making(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-scope-directive-automated-decision-making.html)
- Government of Canada – Responsible use of artificial intelligence in government(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html)
- 内閣官房 – 人間中心のAI社会原則(https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/aigensoku.pdf)
- 経済産業省 – AI事業者ガイドライン検討会(https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html)
- デジタル庁 – 先進的AI利活用アドバイザリーボード(https://www.digital.go.jp/councils/ai-advisory-board)