Trustworthy AI政策の定点観測

日本のTrustworthy AI政策は次の段階へ――民間ガイドライン改訂と政府運用ルール具体化が同時進行

日本のTrustworthy AI政策は、いま静かに次の段階へ移っている。これまでは「原則をどう示すか」「ガイドラインをどう整えるか」が中心だったが、2026年春時点では、民間向けには経済産業省のAI事業者ガイドライン改訂、政府向けにはデジタル庁の生成AI利用ルール具体化が同時に進んでいる。派手な新法ではないが、実務にはむしろこちらの方が効く。日本のAI政策は、理念の追加よりも、使い方と責任の整理へ軸足を移したと見てよい。

なぜ今、日本の話として読む価値があるのか

Trustworthy AIという言葉は、EUやOECDの文脈で語られることが多い。しかし、日本で実際に読まれるのは、最終的には「日本の企業や行政に何が起きるのか」という話である。今回の確認で重要なのは、日本が単に海外議論を追いかけているのではなく、民間向けと政府向けの二層で、実装可能なルールを同時に詰め始めていることだ。

民間では、AI事業者ガイドラインの改訂によって、経営層・実務層が使いやすい形へ整備が進んだ。政府では、生成AI調達・利活用ガイドラインの改定案や、調達チェックシート、AI相談窓口、CAIOといった運用装置が具体化しつつある。つまり、原則論の時代から、運用設計の時代に入っている。

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20260331_report.html

出典:https://www.digital.go.jp/councils/ai-advisory-board

METI第1.2版が示したもの――民間向けルールは「読む文書」から「使う文書」へ

経済産業省のAI事業者ガイドライン検討会は、2026年3月31日にAI事業者ガイドライン第1.2版を取りまとめた。ここで注目すべきなのは、単に版番号が上がったことではない。公表ページでは、ガイドラインを「より活用いただきやすいもの」とするために、活用の手引き(案)やチャットボットも公開したと明記している。これは、ガイドラインの役割が、理念を掲げるだけの文書から、企業が実際に使うための道具へ移っていることを示す。

第1.2版本編PDFは、総務省・経済産業省名義で2026年3月31日付となっており、概要PDFでは「AI開発・提供・利用にあたって必要な取組についての基本的な考え方」を示す文書だと整理されている。さらに別添概要では、経営層によるAIガバナンスの構築やモニタリング、事業者取組事例、チェックリスト・ワークシートなど、より実装に近い部品が並んでいる。要するに、日本の民間向けTrustworthy AIは、抽象論よりも「どう使うか」の整備に入った。

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20260331_report.html

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_1.pdf

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_2.pdf

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_4.pdf

デジタル庁4月8日更新が示したもの――政府向けルールは「試行」から「統治」へ

政府利用側では、デジタル庁の先進的AI利活用アドバイザリーボードが明確な続報を出している。トップページの最終更新日は2026年4月8日で、第3回アドバイザリーボードの議事要旨掲載が新着情報として示されている。第3回会合の資料構成を見ると、各府省庁生成AIシステム定期報告概要、我が国及び諸外国における生成AI動向、そして「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン」改定案が並んでいる。これは、政府のAI利用が個別実証の段階を越え、横断的な統治の議題として扱われていることを意味する。

さらに、第3回の概要資料PDFでは、AI相談窓口、調達チェックシート、CAIO、対象生成AIの拡大、高リスクな生成AI利活用の考え方などが確認できる。加えて、既に第2回時点でガイドラインの充実に向けた改定方針案が示されており、「技術面とユースケースの発展が著しく、今後想定されていなかったリスクが顕在化する可能性があることから、随時見直しする」と整理されていた。つまり、政府向けではガイドラインが固定文書ではなく、運用に合わせて更新する仕組みとして回り始めている。

また、2025年6月の重点計画概要資料では、政府における生成AI利活用促進とリスク管理を表裏一体で進めるため、各府省庁へのCAIO設置やアドバイザリーボード設置が位置付けられている。ここまで見ると、日本の政府利用側は、単なる生成AI活用推進ではなく、調達・統治・相談・責任分担をまとめて組み込む方向へ進んでいる。

出典:https://www.digital.go.jp/councils/ai-advisory-board

出典:https://www.digital.go.jp/councils/ai-advisory-board/80174015-f73b-4d98-811e-c601c26c0ba5

出典:https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/80174015-f73b-4d98-811e-c601c26c0ba5/b5da8c01/20260310_meeting_ai-advisory_%20outline_04.pdf

出典:https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/80174015-f73b-4d98-811e-c601c26c0ba5/b0d3eeec/20260310_meeting_ai-advisory_%20outline_03.pdf

出典:https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/eb376409-664f-4f47-8bc9-cc95447908e4/9b7306d7/20260113_meeting_ai-advisory_%20outline_05.pdf

出典:https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/5ecac8cc-50f1-4168-b989-2bcaabffe870/cd4e0324/20250613_policies_priority_outline_03.pdf

日本で今起きていることは「二層同時進行」である

ここで重要なのは、民間向けと政府向けが別々に動いているのではなく、むしろ相互に影響し合う形で進んでいることだ。第3回アドバイザリーボード資料には、AI事業者ガイドラインの令和7年度更新内容(案)や、AIのセキュリティ確保のための技術的対策に係るガイドライン(案)、CAIOガイドブック(案)、AIインシデントレスポンス関連資料などが並んでいる。つまり、政府側の議論の中にも民間向けガイドライン更新が参照されており、日本のTrustworthy AI政策は、官民別々に進むのではなく、ゆるやかに接続されながら実装フェーズへ進んでいる。

この構図は、日本の読者にとってかなり重要だ。なぜなら、日本企業に直接効くのはまずMETIのガイドラインだが、今後の調達・委託・政府案件・公共接点を考えると、デジタル庁側の運用ルールも無視できないからである。いわば、民間は「何を求められるか」を、政府は「どう使うか」を同時に詰めている。日本のTrustworthy AIは、いままさにこの二層構造で現実化している。

出典:https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/80174015-f73b-4d98-811e-c601c26c0ba5/c0a1cfcc/20260310_meeting_ai-advisory_%20outline_02.pdf

日本企業・実務担当者は何を見ておくべきか

この流れを踏まえると、日本企業や実務担当者が確認すべきポイントはかなりはっきりしている。第一に、AI事業者ガイドライン第1.2版が、単なる理念文書ではなく、経営層・実務層が使うための文書へ変わりつつあること。第二に、政府向け生成AIガイドラインの改定と、その周辺にある調達チェックシート、AI相談窓口、CAIO、リスク分類が、今後の公的案件や説明責任の基準になり得ること。第三に、日本では新法が先に来るというより、ガイドライン、手引き、概要資料、相談窓口、チェックシートのような形で静かに実務が固められていくことだ。

派手な法改正ニュースだけを追っていると、この変化は見落としやすい。しかし、実務に一番効くのは、往々にしてこうした「地味だが使う文書」である。だからこそ、今回の日本向け記事では、OECDやEUの総論よりも、METI第1.2版とデジタル庁4月8日更新を前面に出すほうが、読む価値が高い。

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20260331_report.html

出典:https://www.digital.go.jp/councils/ai-advisory-board

出典一覧

Trustworthy AI政策の定点観測(2026年03月30日時点)

2026年03月30日時点:OECD・EU・韓国・カナダ・日本の動向整理

2026年03月30日時点の確認では、今週の動きが比較的明確だったのはEUと日本の政府利用領域である。EUでは2026年03月20日にAI Boardの第7回会合が開かれ、AI Continent Action Plan、AI Act、AI生成コンテンツの表示実務に関する議論が前進した。日本ではデジタル庁が2026年03月10日に第3回先進的AI利活用アドバイザリーボードの会議資料を掲載している。他方、OECD、カナダ、日本の民間事業者向け基準文書は、直近で公表済みの基準線を維持しつつ運用段階にあり、韓国は2026年01月22日の施行後、猶予期間付きで実装ルールを具体化している。

OECD:AI定義とTrustworthy AIの基準線は維持、政策ステージは非拘束の国際原則運用

OECDの基準線は、AI system definition と OECD AI Principles にある。Policy Navigator上では、AI system definition について、2023年11月に加盟国が改訂版を承認したことが示されており、その目的は2019年勧告における AI system の射程を明確にすることにある。あわせて、OECD AI Principles は、2019年採択、2024年5月更新と整理されており、innovative and trustworthy で、人権と民主的価値を尊重するAIの利用を促進する原則として位置付けられている。今回の確認範囲では、必須ページ上で今週付の新規制度改定告知は確認できず、政策ステージは引き続き、各国制度の上位に置かれる非拘束の勧告・原則の運用段階とみるのが妥当である。

出典:https://oecd.ai/en/
https://oecd.ai/en/ai-principles
https://oecd.ai/en/dashboards/policy-initiatives/updated-oecd-definition-of-an-ai-system-4108

EU:AI Actは施行後の実装局面へ進み、今週はAI Boardで適用実務を確認

EUは、Trustworthy AI を「卓越性と信頼」の両輪で扱っている。European approach to artificial intelligence のページでは、EUのAI政策は研究・産業能力の強化と、安全性・基本権保護を両立させる枠組みとして整理されている。AI Actのページでは、AI Act が 2024年08月01日に発効し、全面適用は 2026年08月02日である一方、禁止AI慣行とAIリテラシー義務は 2025年02月02日から、GPAIモデルの義務は 2025年08月02日から適用済みと示されている。さらに今週の動きとして、2026年03月20日の第7回AI Board会合では、AI Continent Action Plan と AI Act の現行優先課題が確認され、AI生成コンテンツの labelling and marking に関する Code of Practice の第2ドラフトが議論された。つまりEUは、立法段階を過ぎ、実装ガイドラインと産業実装戦略を並走させる段階に入っている。

出典:https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
https://digital-strategy.ec.europa.eu/en/policies/ai-board
https://digital-strategy.ec.europa.eu/en/news/seventh-ai-board-meeting

韓国:AI Basic Actは施行済み、透明性と高影響AIの実装ルールが具体化

韓国は、制度ステージがもっとも明確に「施行・運用」へ移った国の一つである。MSITの公式発表では、AI Basic Act とその Enforcement Decree が 2026年01月22日に施行されたとされる。同時に、同法は AI industry の振興と trustworthy foundation の整備を両立させる設計であり、Enforcement Decree では、国家AIガバナンス、訓練データ、導入支援、透明性、安全性、高影響AIの判断基準まで細則化されている。ただし、少なくとも1年間の grace period が付され、透明性義務に関する事実調査や制裁は当面猶予される。別途公表された透明性ガイドラインでは、AI生成コンテンツの labeling requirements が明確化され、サービス内表示と外部配布物を分けて柔軟な表示方法を認めている。したがって韓国は、法律成立の確認段階ではなく、執行準備を伴う実務運用設計の段階に入っている。

出典:https://www.msit.go.kr/eng/index.do
https://www.msit.go.kr/eng/bbs/view.do%3Bjsessionid%3DZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1214&sCode=eng
https://www.msit.go.kr/eng/bbs/view.do%3Bjsessionid%3DZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1215&sCode=eng

カナダ:法令新設よりも、部門別責任分担と行政実装の整流化が前面

カナダの今回の確認対象では、法制度の新規制定よりも、政府内の責任分担と導入運用の整備が前面に出ている。Responsible use of artificial intelligence in government の総合ページは 2026年02月06日更新で、AI Strategy for the Federal Public Service 2025-2027、Departmental AI Responsibilities、Government of Canada AI Register などを一体で案内している。AI Strategy の Overview は 2026年02月25日付で、responsible AI adoption を通じて国民へのサービス向上を目指すと明記している。Departmental AI Responsibilities は、CIO of Canada が出す実務文書として、AI adoption and experimentation における recommended functions and responsibilities を示し、部門ごとのAI戦略を策定して政府全体の方向性に整合させることを求めている。すなわちカナダは、政策ステージとしては行政実装の責任分担と統治運用の強化局面にある。

出典:https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html
https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/guide-departmental-ai-responsibilities.html
https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html

日本(METI・総務省):AI事業者ガイドライン第1.1版が現行基準線として継続

日本の民間事業者向け実務基準としては、AI事業者ガイドライン第1.1版が引き続き基準線である。AI事業者ガイドライン検討会ページでは、最終更新日は 2025年03月28日であり、同日付の第1.1版が掲載されている。概要PDFでは、このガイドラインが AI開発・提供・利用 にあたって必要な取組についての基本的考え方を示す文書であり、本編を why と what、別添を how に分ける構成であることが明示されている。また、第1部「AIとは」、第2部の AIガバナンスの構築、チェックリスト、主体横断的な仮想事例まで含めた構成が示されている。さらに、広島AIプロセス、OECD AI原則等を踏まえつつ、一般的なAIを含む広い範囲のAIシステム・サービスを対象とし、各事業者が自主的にAIガバナンスを構築することを重視している。今回の確認範囲では、2025年03月28日以降の新改定は確認できなかった。

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_2.pdf

日本(デジタル庁):政府利用は改定検討を継続し、CAIOと報告体制を明文化

政府内の生成AI利用については、デジタル庁の運用設計が今週確認時点で最も動いている。先進的AI利活用アドバイザリーボードのトップページは 2026年03月10日更新で、第3回会議資料の掲載を告知している。第3回会合の議事には、各府省庁生成AIシステム定期報告概要、国内外動向、そして行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた改定案が含まれている。加えて、デジタル社会推進標準ガイドラインのページでは、DS-920 が Normative 文書として掲載され、生成AIの利活用促進とリスク管理を表裏一体で進めるための政府ガイドラインと説明されている。本文PDFでは、先進的AI利活用アドバイザリーボードの開催、AI相談窓口、各府省庁での AI統括責任者(CAIO)設置、四半期程度の定期報告、高リスク案件の報告と助言の仕組みが明記されている。つまり日本の政府利用領域は、一般論の注意喚起ではなく、責任者配置と報告ループを伴う運用フェーズに入っている。

出典:https://www.digital.go.jp/councils/ai-advisory-board
https://www.digital.go.jp/councils/ai-advisory-board/80174015-f73b-4d98-811e-c601c26c0ba5
https://www.digital.go.jp/resources/standard_guidelines
https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/b7cbb25f-2b3b-414a-b601-404469af221f/49e4ccc3/20250527_resources_standard_guidelines_guideline_01.pdf

全体所見:今週時点では「原則」より「実装責任」の比重が高まっている

今回の確認で目立つのは、Trustworthy AI の議論が、抽象的な理念競争から、誰がどの単位で責任を負い、どの場で報告し、どの案件を高リスクとして扱うかという運用論へ寄っている点である。OECDは引き続き国際的な定義と原則の基準線を提供しているが、EUは AI Act の適用タイムラインと実装補助を具体化し、韓国は施行済み法制の細則を動かし、カナダは行政組織内の責任分担を整え、日本は民間向けガイドラインと政府向け運用ルールを分けて更新・運用している。今週分として重要なのは、新法の有無だけを見るのではなく、各地域で「責任者」「報告」「ラベリング」「高リスク判断」「調達・利活用ルール」がどこまで明文化されたかを確認することにある。

出典:https://oecd.ai/en/ai-principles
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/guide-departmental-ai-responsibilities.html
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html
https://www.digital.go.jp/councils/ai-advisory-board

出典一覧

Trustworthy AI政策の定点観測(2026年3月23日確認)

2026年3月23日時点で公式情報を確認したところ、Trustworthy AIに関する各国政策は、新規制度の追加よりも「既存制度の実装・運用の具体化」に重点が移行していることが確認できた。EUは規制の実装段階、韓国は施行後運用、カナダは政府内責任分担の明確化、日本はガイドライン運用と政府内ルール整備が並行して進行している。一方でOECDは国際的な基盤としての役割を維持している。

OECD.AI Policy Navigatorの確認

OECD.AIは、各国のAI政策を横断的に整理する国際的な基盤として引き続き機能している。今回の確認では、構造や制度的な大きな変更は確認されておらず、Trustworthy AIに関する国際比較の参照点としての役割が維持されている。

また、OECD AI Principlesは、人間中心・透明性・説明責任・安全性を中核とする枠組みとして継続しており、各国政策の基準として参照されている。

出典:https://oecd.ai/en/

出典:https://oecd.ai/en/ai-principles

EU AI Actの確認

EUではAI Actがすでに制度として確立されており、現在は実装フェーズに移行している。欧州委員会の政策ページでは、AI Actがリスクベースで設計された包括的規制として整理されている。

今回の確認では、制度そのものの変更ではなく、AI literacyや高リスクAI、GPAI(汎用AI)に関する補助文書の整備が進んでいる点が重要である。これは、Trustworthy AIを実務レベルへ落とし込む段階に入っていることを示している。

出典:https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

出典:https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

出典:https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers

韓国AI基本法の確認

韓国ではAI基本法が施行済みであり、制度は実装・運用フェーズへ移行している。今回の確認では、新制度追加よりも、既存制度の現場適用が進んでいる点が確認できた。

AIガバナンス体制、リスク管理、事業者責務の整理が進められており、Trustworthy AIを制度として定着させる段階にある。

出典:https://www.msit.go.kr/eng/index.do

カナダ政府のResponsible AIページ群の確認

カナダではResponsible AIの枠組みは維持されており、政府内部での責任分担の明確化が進んでいる。総合ページは引き続き中核的な導線として機能している。

Guide on Departmental AI Responsibilitiesでは、各省庁の責任と導入プロセスが整理されており、AI導入前に関係部門と連携する枠組みが明示されている。また、AI Strategyの概要ページでは、政府全体で責任あるAI導入を進める方針が確認できる。

出典:https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html

出典:https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/guide-departmental-ai-responsibilities.html

出典:https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html

日本:METI AI事業者ガイドラインの確認

METIでは、AI事業者ガイドライン第1.1版が引き続き主要な基準文書として公開されている。今回の確認では、新版更新は確認されておらず、既存ガイドラインが継続的に参照されている。

本ガイドラインは、AIの開発・提供・利用における基本的な考え方を示すものであり、日本におけるTrustworthy AIの実務基盤として位置付けられている。

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html

出典:https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20250328_2.pdf

日本:デジタル庁AI資料の確認

デジタル庁では、生成AIの政府利用に関するガイドライン整備が進められている。アドバイザリーボードおよび標準ガイドライン群を通じて、政府内のAI運用ルールが整理されている。

今回の確認では、政府AIの利用が実証段階から実運用段階へ移行していることが確認できる。

出典:https://www.digital.go.jp/councils/ai-advisory-board

出典:https://www.digital.go.jp/resources/standard_guidelines

動向整理:2026年3月時点の全体像

Trustworthy AI政策は、理念や原則の整理から、実際の運用・実装へと軸足が移っている。EU・韓国は制度実装、カナダは行政運用、日本はガイドライン運用、OECDは国際基盤という役割分担が明確になっている。

今後は制度そのものよりも、運用の具体性と説明責任の実装が評価の中心となる。

出典一覧

Trustworthy AI政策の定点観測(2026年3月16日確認)

今回の確認では、Trustworthy AIをめぐる各国・各機関の政策フェーズが、かなりはっきり分かれてきた。OECDは定義や原則の再改定よりも、各国の政策情報を継続的に整理する基盤としての役割を強めている。EUはAI Actの法文そのものより、実装に必要な標準化、コード、ガイダンス整備が前面に出ており、制度は立法段階から実装段階へ移っている。韓国はAI Basic Actが施行段階に入り、透明性・高影響AI・影響評価といった運用ルールの公開が進んだ。カナダはDirectiveそのものの大きな再改定は確認できなかったが、政府内のAI戦略、AI Register、部門別の責任整理が厚くなっている。日本はMETIのAI事業者ガイドライン自体には大きな版更新が見えない一方、デジタル庁による政府内実装の工程が具体化した。

本稿は、指定された公式ソースを中心に、2026年3月16日時点で公開確認できた一次情報をもとに整理している。変更が見当たらない箇所は、その旨を明記した。なお、EUの「EU AI Act」特設サイトは制度理解に便利な整理サイトとして参照しているが、法的な原本確認は欧州委員会側のページを優先した。

OECD

OECDについては、今回の確認でもAI定義やTrustworthy AIの定義そのものに大きな更新は見当たらなかった。引き続き中核にあるのは、2019年採択・2024年更新のOECD AI Principlesであり、Trustworthy AIは「革新的で信頼でき、人権と民主的価値を尊重するAI」という軸で整理されている。今回の確認では大きな変更なし、と見てよい。

ただし、動きが止まっているわけではない。むしろOECDは、原則論の追加よりも、各国政策を比較・追跡しやすくする基盤整備を強めている。OECD AI Policy Navigatorは、80超の法域・国際機関の政策や制度を扱うライブ型のデータベースとして運用されており、各国の公式連絡窓口やOECD.AI側の専門家が継続的に更新する構造になっている。ここは地味だが実務上かなり重要で、制度比較の作業コストを下げる、いわば政策インフラの役割を担っている。

直近では、OECDが2026年3月20日締切で「Governing with Artificial Intelligence」のグローバル募集を続けており、政府内AIのユースケース、政策・ガバナンス施策、リスク評価やバイアス低減などの実装ツールを集めている。これは新たな法制度ではないが、Trustworthy AIを政府実装の文脈で具体化するための国際連携の動きとして見ておくべきだろう。

EU

EUは、今回の定点観測でもっとも「実装段階に入った」ことが明確だった地域である。AI定義やリスクベースの基本構造自体は大きく変わっていないが、AI Actの適用スケジュール、標準化、補助的コード、実務ガイダンスの整備がかなり具体化している。

制度の現在地

AI Actはすでに発効しており、2025年2月には禁止行為とAI literacy要件が適用開始済み、2025年8月にはGPAIモデル関連やガバナンス関連の規定が動き始めている。現在の焦点は、2026年8月以降に本格適用される残りの規定を、事業者と当局がどう実務に落とし込むかに移っている。

直近の更新

欧州委員会のAI政策ページでは、2025年11月19日にDigital Simplification Packageの一部としてAI Actのターゲット改正提案が示されており、実装を簡素で分かりやすいものにする方向が打ち出されている。さらに、標準化に関するページでは、高リスクAIの一部について、関連する標準や支援ツールの整備状況に応じて適用タイミングを連動させる考え方が明示されている。法が先に立ち、運用が後から息切れする――というありがちな筋の悪い展開を避けたい意図が透けて見える。

加えて、2026年3月5日にはAI生成コンテンツの表示・ラベリングに関するCode of Practiceの第2次案が公表された。ここでは、Article 50に基づく透明性義務をめぐり、マーク付け、メタデータ、水準の異なる識別方法、EU共通アイコンの例示、創作物や風刺表現への扱いなどが整理されている。意見募集は2026年3月30日までで、最終化は2026年6月初めが予定されている。透明性義務の適用開始は2026年8月2日だ。

国際連携

EUはAI Officeを軸に、OECD、G7、G20、国連、Council of Europe、NAAIMESなどとの連携を明示している。つまりEUは、EU域内の制度だけで完結するつもりではなく、自らの実装経験を国際標準形成に接続する構えを強めている。Trustworthy AIの定義面で新語を増やしているわけではないが、「実装手順まで含めて輸出可能な制度」に近づけようとしている点が、今回の観察では印象的だった。

韓国

韓国は、今回の確認対象の中で、法制度のステージがもっとも明快に進んだ国の一つである。AI Basic Actは2026年1月22日に施行され、施行令も同日に発効した。つまり、検討や法案段階ではなく、すでに施行段階に入っている。

制度の現在地

MSITの説明では、この法律はAI産業の振興と、安全で信頼できる基盤の整備を同時に狙う枠組みとして位置づけられている。国家AIガバナンスとして大統領直属の戦略委員会やCAIO体制を制度化しつつ、透明性、安全性、高影響AI、影響評価といった実装論点を施行令とガイドラインで具体化している。韓国らしく、推進と統制を一体で並べてくる設計だ。

直近の更新

2025年11月12日から12月22日にかけて施行令案の立法予告が行われ、2026年1月22日に法と施行令が発効した。その後、同日付で支援デスク側に透明性・安全性・高影響AIの判断・事業者責務・影響評価の主要ガイドラインが掲載されている。さらにMSITは2026年2月25日に透明性ガイドラインの公表を正式に発表しており、AI生成コンテンツ、とくにディープフェイクについて、利用者が識別しやすい形での表示を求める方針を具体化した。

ここで実務上のポイントは二つある。第一に、生成AIコンテンツの表示義務について、サービス環境内に留まる出力と、ダウンロード等で外部流通する出力を分けて考えていること。第二に、韓国国内の利用者にAI製品・サービスを直接提供する海外企業も対象に含めると整理していることだ。国内法の運用だが、実質的には域外適用の含みを持つ設計になっている。

スケジュールと移行措置

もっとも、施行と同時に全面執行というわけではない。MSITは少なくとも1年のグレースピリオドを設け、事実調査や過料賦課は原則として猶予すると説明している。重大な生命被害や人権侵害などの例外はあるが、基本的には企業の準備期間を確保しながら、支援デスクとガイドラインで不確実性を下げる運用になっている。制度のステージは施行済みだが、実務上は移行期間のただ中、という理解が正確だ。

カナダ

カナダでは、今回確認した範囲でDirective on Automated Decision-Makingそのものの新たな改正文は見当たらなかった。したがって、Directiveの法政策的な中身については「今回の確認では大きな変更なし」と整理できる。一方で、運用面のツール、ガイド、戦略、公開レジストリは着実に前進している。

制度の現在地

カナダの政府AIガバナンスは、依然としてDirective on Automated Decision-Makingが背骨である。このDirectiveは、行政上の意思決定またはその評価を支える自動化システムに適用され、AIだけでなく、ルールベース、統計モデル、生成AI、機械学習など幅広い自動化を含みうる。つまり、「AIだけを特別扱いする」のではなく、「行政判断を代替・補助する自動化」を横断的に押さえる設計だ。

直近の更新

2026年2月には、Responsible use of artificial intelligence in governmentの統合ページが更新され、連邦公務向けAI Strategy 2025-2027とDepartmental AI Responsibilitiesが前面に出た。AI Strategyの概要ページ自体の更新日は2026年2月25日であり、政府内での責任あるAI活用を単なる試行から恒常的なガバナンスへ移す意図が見える。また、2025年11月には連邦政府のAI Registerが公開され、政府内でどのようなAI利用が行われているかを対外的に示す枠組みが動き始めた。

実装ガイドも地味に効いている。Algorithmic Impact AssessmentはDirectiveを支える必須のリスク評価ツールとして維持されており、影響度に応じて必要な措置が段階的に決まる。さらに、Peer Reviewガイドでは、一定以上のインパクト水準の案件について、レビューの公表まで含めた手順が整理されている。これは「信頼」を空中戦で終わらせず、文書化・評価・公開の流れに落としている点で実務的だ。

パブリックコメントと今後

2024年に実施された連邦公務向けAI戦略の意見募集については、2025年1月末に “What We Heard” が公表され、その後のAI戦略整備につながっている。今回の確認では新たな意見募集は確認できなかったが、戦略、Register、責任整理、リスク評価ツールの更新を見る限り、カナダは新法競争よりも、行政内部の運用統治を磨き込むフェーズに入っていると読める。

日本

日本は、指定ソースの中でやや二層構造になっている。ひとつはMETIのAI事業者ガイドライン、もうひとつはデジタル庁による政府内AI実装である。今回の確認では、前者は安定、後者は前進、という整理がもっとも実態に近い。

METI:AI事業者ガイドライン

METIのAI事業者ガイドライン掲載ページでは、現時点でも第1.1版が最新版として掲示されており、掲載ページの最終更新日は2025年4月4日となっている。このため、指定ページ上で確認できる限りでは、AI定義やTrustworthy AIの考え方を大きく組み替えるような新版公開はまだ確認できない。今回の確認では大きな変更なし、でよい。

ただし、水面下で議論が止まっているわけでもない。METI関連の検討資料では、AIエージェントの動向を踏まえたAI事業者ガイドライン更新の検討に触れており、生成AIからエージェント型AIへ論点がずれてきた現実を受けて、将来の更新余地が示唆されている。正式版はまだ動いていないが、次の更新波はこのあたりから来る可能性が高い。

デジタル庁:政府内AI実装

一方で、デジタル庁側はかなり動いている。2026年3月6日の公表では、政府職員約18万人を対象としたガバメントAI「源内」の大規模実証を、2026年5月から2027年3月まで実施する予定が示された。背景には、2025年12月23日閣議決定の人工知能(AI)基本計画があり、政府自らが先導的にAIを利活用し、最終的にはAIの信頼性と透明性の確保につなげるという方針が明記されている。

ここで注目すべきなのは、日本のTrustworthy AIが、事業者向け一般ガイドラインだけでなく、政府実装そのものを通じて社会的な信頼を示そうとしている点である。デジタル庁の資料では、行政実務用AIアプリの内製、政府共通データセット整備、国産LLM支援、他府省庁への技術支援までが並列で語られており、単なるPoCでは終わらせない設計が見える。制度のステージで言えば、民間向けルールは安定運用、政府利用は実装加速、という二層構造だ。

今回の観察から見えること

今回の定点観測を通して見えてくるのは、Trustworthy AI政策が「定義を掲げる時代」から「実装をさばく時代」へ移っていることだ。OECDは比較可能な政策データベースを整え、EUは標準化・コード・執行体制を厚くし、韓国は法律施行と詳細ガイドラインを出し、カナダは行政内部の責任・公開・評価を磨き、日本は政府利用の実装工程を前に出している。

言い換えると、いまの差は「Trustworthy AIを唱えているかどうか」ではなく、「誰に、どの段階で、どの文書で、どの評価手順を要求するか」がどこまで具体化しているかにある。派手な新語より、地味な運用文書のほうが制度を動かす。政策の世界はしばしばそういう、見た目より泥くさい生き物である。

出典・確認メモ

対象 確認した文書 確認したポイント 一次 / 二次 確認日
OECD https://oecd.ai/en/ai-principles OECD AI Principlesの位置づけ、Trustworthy AIの原則、2024年更新の有無を確認。 一次情報 2026-03-16
OECD https://oecd.ai/en/dashboards/overview Policy Navigatorがライブ型の政策データベースとして継続更新されていることを確認。 一次情報 2026-03-16
OECD https://oecd.ai/en/wonk/call-ai-in-gov 政府AIユースケース・政策施策・実装ツール募集の継続、締切日を確認。 一次情報 2026-03-16
EU https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai AI Actの法的位置づけ、信頼できるAIをめざす基本方針、AI Pact等を確認。 一次情報 2026-03-16
EU https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence 2025年11月の簡素化提案、主要マイルストーン、AI Officeの実装支援方針を確認。 一次情報 2026-03-16
EU https://digital-strategy.ec.europa.eu/en/policies/ai-act-standardisation 標準化と高リスクAIの適用タイミングの関係、最遅適用時期の提案を確認。 一次情報 2026-03-16
EU https://digital-strategy.ec.europa.eu/en/library/commission-publishes-second-draft-code-practice-marking-and-labelling-ai-generated-content AI生成コンテンツ表示コード第2次案、公募期限、適用開始日を確認。 一次情報 2026-03-16
EU https://artificialintelligenceact.eu/implementation-timeline/ EU AI Actの段階適用日を一覧で再確認。制度理解用の補助参照。 二次情報(制度整理サイト) 2026-03-16
韓国 https://www.msit.go.kr/eng/bbs/view.do;jsessionid=ZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1214&sCode=eng AI Basic Actと施行令の施行日、グレースピリオド、国家AIガバナンスの枠組みを確認。 一次情報 2026-03-16
韓国 https://www.msit.go.kr/eng/bbs/view.do;jsessionid=ZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1215&sCode=eng 透明性ガイドラインの内容、AI生成物表示、海外事業者への適用整理を確認。 一次情報 2026-03-16
韓国 https://www.sw.or.kr/site/sw/ex/board/View.do?bcIdx=64993&cbIdx=390 主要ガイドライン一式(透明性・安全性・影響評価など)の掲載状況を確認。 一次情報 2026-03-16
カナダ https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html Responsible use of AI in Governmentの統合ページ更新と主要実装文書の構成を確認。 一次情報 2026-03-16
カナダ https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html 連邦公務向けAI戦略の更新日と位置づけを確認。 一次情報 2026-03-16
カナダ https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-scope-directive-automated-decision-making.html Directiveの適用範囲、AIに限定されない自動化全般への適用整理を確認。 一次情報 2026-03-16
カナダ https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html AIAの構成と、Directiveを支える必須評価ツールであることを確認。 一次情報 2026-03-16
カナダ https://www.canada.ca/en/treasury-board-secretariat/news/2025/11/canada-launches-first-register-of-ai-uses-in-federal-government.html AI Register公開の事実と位置づけを確認。 一次情報 2026-03-16
日本 https://www.meti.go.jp/policy/it_policy/ai/
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
AI事業者ガイドラインの最新版表示、第1.1版の掲載継続、ページ更新日を確認。 一次情報 2026-03-16
日本 https://www.digital.go.jp/news/2d69c287-2897-46d8-a28f-ea5a1fc9bce9 ガバメントAI「源内」の大規模実証、対象人数、実施期間を確認。 一次情報 2026-03-16
日本 https://www.digital.go.jp/assets/contents/node/information/field_ref_resources/2d69c287-2897-46d8-a28f-ea5a1fc9bce9/86f43a74/20260306_policies_ai_gennai_mass_deployment.pdf 人工知能基本計画の抜粋、政府先導利用、展開スケジュール、実装項目を確認。 一次情報 2026-03-16

Trustworthy AI政策モニタリング

2026年3月7日時点:OECD・EU・韓国・カナダ・日本の現在地を読む

AIをめぐる政策議論は、抽象的な理念の段階から、制度設計・運用・監査の段階へと移っています。「Trustworthy AI」という言葉そのものを前面に出す国もあれば、「責任あるAI」「安全・安心なAI」「透明で公正な自動意思決定」といった表現で進める国もあります。ただし、共通しているのは、AIを単なる便利な技術として扱うのではなく、透明性、公平性、安全性、説明責任をどう制度へ落とし込むかが主戦場になっている点です。

Trustworthy AIは、もう理念だけでは済まない

本日時点で各国の動きを整理すると、Trustworthy AIは「望ましい価値観」の話から、「誰が責任を負うのか」「どのような説明を求めるのか」「いつから義務化されるのか」という運用設計の話へ移っています。各国で表現は異なりますが、AIの社会実装にあたり、信頼性・安全性・透明性・公正性・説明責任を制度として定着させようとする流れは明確です。

この全体像を横断的に把握する起点として、最も使いやすいのが OECD.AI です。OECD はAI原則を公表し、それを各国政策の比較に使える形で整理しています。各国の定義や施策をざっと見渡すには、まず OECD.AI を起点にし、その後に各国の公式サイトへ降りていく流れが実務的です。参照:OECD AI Principles(https://oecd.ai/en/ai-principles)OECD.AI Policy Observatory / National AI Policies(https://oecd.ai/en/dashboards/national)

OECDは各国比較の「座標軸」として有効

OECD の役割は、各国に直接義務を課すことではありません。むしろ、各国がAI政策を設計する際に参照しやすい共通の枠組みを示すことにあります。Trustworthy AI を単一の法律で定義するのではなく、共通原則として各国の制度設計に反映させるための座標軸として機能しています。

このため、「どの国がTrustworthy AIをどう定義しているのか」をざっと掴むには OECD.AI が最も見やすく、「その国が今どの段階にあるのか」を厳密に見るには、その先で各国官庁のページを読むのが正攻法です。政策監視の世界では、ここを飛ばしていきなり細部へ入ると、森を見ずに枝葉だけ追いかけることになりがちです。

EUは、理念をもっとも明確に制度へ押し込んだ

EUは Trustworthy AI をもっとも明確に制度化した法域です。2019年に公表された Ethics Guidelines for Trustworthy AI では、人間の主体性と監督、技術的堅牢性と安全性、プライバシーとデータガバナンス、透明性、多様性・非差別・公正性、社会・環境的福利、説明責任という7つの要件が整理されました。これは、AIの信頼性を単なる安全性や精度だけでなく、ガバナンス全体の束として捉えている点で重要です。参照:European Commission – Ethics guidelines for trustworthy AI(https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai)

その後、EUはこの理念を AI Act へ接続しました。AI Act は2024年8月1日に発効し、禁止AI慣行とAIリテラシー義務は2025年2月2日から、GPAI(汎用AI)関連の義務とガバナンス規則は2025年8月2日から、全面適用は2026年8月2日とされています。さらに、一部の高リスクAIシステムには2027年8月2日までの延長移行期間があります。EUの特徴は、理念を標語で終わらせず、適用日付きの制度へ落とし込んだところにあります。参照:European Commission – Regulatory framework proposal on artificial intelligence(https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)

本日時点では、EUは「法律を作って終わり」の段階ではありません。AI生成コンテンツの表示やラベリングに関する Code of Practice の整備など、事業者が実際にどう適合していくのかという実務設計が進んでいます。週次監視の対象として見るなら、EUは法そのものよりも、周辺ガイドライン、FAQ、実務コード、解釈文書の更新が非常に重要です。

韓国は、Trustworthinessを法制度の中心に据えた

韓国は、Trustworthy AI をかなり正面から法制度に組み込んでいます。科学技術情報通信部(MSIT)は、AI Basic Act を Basic Act on the Development of Artificial Intelligence and the Establishment of Foundation for Trustworthiness と位置付けており、2026年1月22日に施行されたと公表しています。法の名称レベルで「信頼の基盤」が明示されている点は、かなり特徴的です。参照:MSIT – Korea enforces AI Basic Act to become AI G3(https://www.msit.go.kr/eng/bbs/view.do%3Bjsessionid%3DZT0iXB7mAiF9kdAY5Ak7c74gZdsb4OTVG2h47Huj.AP_msit_1?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1214&sCode=eng)

もっとも、韓国は単純な規制強化路線ではありません。産業競争力を損なわないように「minimum regulation principle」を掲げつつ、AI倫理、透明性、安全性、高影響AIに関する実務義務を整備する方向です。つまり、育成と統治の両方を同時に走らせている構造です。現在地としては、法の施行は済み、ここから下位法令、ガイドライン、解釈運用がどこまで具体化されるかが監視ポイントになります。

カナダは、公的部門の責任あるAI運用で先行している

カナダは、包括AI法よりも先に、政府利用の統制と透明化でTrustworthy AIを具体化しています。中核にあるのは Directive on Automated Decision-Making であり、政府部門で自動意思決定を利用する際に、透明性、説明責任、公平性を確保することを求めています。影響評価、透明性の確保、品質の維持、救済の余地といった要素が明確に組み込まれており、非常に行政実務寄りです。参照:Government of Canada – Guide on the Directive on Automated Decision-Making(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-scope-directive-automated-decision-making.html)

さらに、カナダ政府は「Responsible use of artificial intelligence in government」のページで、生成AIの日常利用ガイド、部局別責任、AI Register、AI Strategy for the Federal Public Service 2025-2027 への導線をまとめています。AI Register の公開は、公共部門におけるAI利用の可視化という意味で非常に大きい動きです。行政がどこでAIを使い、どのような用途なのかを見える化し始めたことは、Trustworthy AIの実装段階として評価できます。参照:Government of Canada – Responsible use of artificial intelligence in government(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html)

監視対象として見ると、カナダの強みは「更新が見やすい」ことです。理念だけでなく、政府内部の運用ルール、登録制度、戦略文書が比較的追いやすく整理されているため、週次モニタリングとの相性が非常に良い国だといえます。

日本は、法の一本化よりも原則とガイドラインで固めている

日本は、EUのように包括AI法を前面に出しているわけではありません。土台にあるのは、2019年の「人間中心のAI社会原則」です。この文書では、AIの恩恵を最大化しながら負の影響を抑えるために、技術だけでなく、制度や社会全体をAI時代に対応させる必要があると整理されています。日本のTrustworthy AIは、まずこの人間中心原則から読み始めるのが筋です。参照:内閣官房 – 人間中心のAI社会原則(https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/aigensoku.pdf)

実務面の中心にあるのが、経済産業省の「AI事業者ガイドライン」です。METIの検討会ページでは、第1.0版が2024年4月19日、第1.01版が2024年11月22日、第1.1版が2025年3月28日と明示されており、日本が改訂可能なガイドラインを積み上げながら、AIガバナンスを実務へ落とし込んでいることが分かります。参照:経済産業省 – AI事業者ガイドライン検討会(https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/index.html)

加えて、政府内部のAI利活用に関しては、デジタル庁の「先進的AI利活用アドバイザリーボード」が重要です。ここでは「信頼できるAI」のあり方、ガバメントAIの推進、行政の進化と革新のための生成AI調達・利活用ガイドラインの改定方向などが議論されています。日本の現在地は、民間向けにはMETIのAI事業者ガイドライン、政府向けにはデジタル庁の調達・利活用ガイドラインという二層構造で運用を固めている段階です。参照:デジタル庁 – 先進的AI利活用アドバイザリーボード(https://www.digital.go.jp/councils/ai-advisory-board)

本日時点で、優先的に見るべき論点

本日時点で、もっとも実務インパクトが大きいのはEUです。AI Actの主要な適用節目がすでに始まっており、2026年8月2日の全面適用へ向けて、透明性義務、GPAI対応、コード・オブ・プラクティスの整備が続いています。週次監視では、EU側のガイドライン、ドラフト、FAQ、実務コードの更新をもっとも重視すべきです。

その次に注視すべきは韓国とカナダです。韓国は施行済み法の運用細則がどこまで明確になるか、カナダは公共部門における責任あるAI運用がどこまで定着し、公開情報として可視化されていくかがポイントです。

日本については、派手な法制ニュースよりも、METIのガイドライン改訂履歴、検討会資料、デジタル庁の会議資料更新を丁寧に追うほうが本質に近いと考えられます。日本の政策は、巨大な一発法よりも、会議体、指針、改定版、実証、調達ガイドの積み上げで進む傾向が強いためです。地味な改定履歴ほど、あとで効いてくる。政策の世界は、見出しの大きさより、更新履歴の静かな一行のほうが怖いのです。

まとめ

Trustworthy AIは、すでに理念だけの言葉ではありません。OECDは各国比較の座標軸を整え、EUは理念を義務へ変え、韓国は信頼性を法制度の中心へ置き、カナダは公共部門で責任あるAIを可視化し、日本は原則とガイドラインで実務運用を詰めています。国ごとにアプローチは異なりますが、共通しているのは、AIの信頼性を「誰かの善意」に任せず、制度と運用に変えようとしている点です。

だからこそ、今後の監視では「Trustworthy AIという言葉があるかどうか」だけでなく、「その国が何を義務化し、何をガイドラインにとどめ、何を実務へ落としたのか」を見ていく必要があります。その差分の積み重ねこそが、各国のAI政策の本当の現在地です。

出典