引用・出典を含むフルバージョン(日本語版)はこちらからご覧ください。
また、英語版はこちらからご覧ください。
人工知能(AI)のグローバル規制・政策動向:2025年の動きと2026年への示唆
2025年は、人工知能(AI)の利用がますます普及する中、急速に発展する技術に対応するため、各国において、規制の制定その他の政策に動きがある1年でした。本ニュースレターでは、日本と欧州連合(EU)を中心に、2025年の主要法域における規制・政策動向について簡単に振り返り、2026年に企業がAIガバナンスの構築に向けて対応すべき事項を解説します。
目次
・日本
・欧州連合(EU)
・その他の法域(米国、中国、韓国、台湾)
・2026年に企業が対応すべきこと
Executive Summary
2025年は、生成AIを中心とする人工知能(AI)の急速な普及を背景に、各国・地域においてAIの利活用を促進しつつリスクに対応するための法規制・政策枠組みが大きく進展した1年でした。とりわけ、日本では包括的なAI法制が初めて施行され、欧州連合(EU)では世界初の包括的AI規制であるEU AI法(AI Act)が段階的に適用開始されるなど、企業のAIガバナンスに直接影響を与える動きが相次いでいます。
日本では、2025年9月に「人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)」が全面施行されました。同法は罰則を伴わない枠組みを採用し、イノベーションを阻害しないことに配慮しつつ、生成AIの悪用等に対する行政関与を可能とする点に特徴があります。また、同年12月には「人工知能基本計画」が閣議決定され、AIガバナンスの主導や信頼性確保が政策の中核として明確化されました。さらに、生成AIと知的財産を巡るソフトローとして「プリンシプル・コード(案)」が公表されるなど、2026年に向けて企業の自主的取組みを前提としたガバナンス強化が求められています。
EUでは、2024年に発効したEU AI法のもと、2025年に禁止AIおよび汎用目的AIモデルに関する規制が適用開始されました。2026年8月には、ハイリスクAIシステムおよび限定リスクAIに対する透明性義務の適用が予定されており、日本企業を含むEU域外企業にも広範な影響が生じます。他方、2025年11月に公表されたEUデジタル・オムニバス法案では、ハイリスクAI規制の適用時期の延期等が提案されており、規制動向を継続的に注視する必要があります。
米国およびアジア諸国においても、包括的なAI政策や基本法の整備が進んでいます。米国では連邦レベルの包括規制は存在しないものの、AI行動計画や大統領令を通じて国家戦略が明確化されつつあります。中国ではデータ管理とトレーサビリティを重視した強い規制が導入され、韓国や台湾ではAI基本法が成立するなど、アジア地域でもAIガバナンスの枠組みが急速に整備されています。
2026年に向けて企業に求められる対応は、①AI倫理規程や社内ガイドラインの整備・運用を通じたAIガバナンスの高度化、②EU AI法をはじめとする域外適用を伴う海外規制への体系的なコンプライアンス対応、③規制・ソフトロー双方を踏まえた継続的なリスクアセスメントです。AIの活用が競争力の源泉となる一方、規制対応の巧拙が事業リスクを左右する局面に入っており、法務・経営・技術部門が連携した実践的な対応が不可欠となっています。
日本
2025年の主要動向
人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)の全面施行(9月1日)
日本では、従来、包括的なAI法規制ではなく、AIに起因するリスクや問題の対処にあたって、各分野の所轄官庁が法令やソフトローにより対応してきましたが、2025年6月4日、AIのイノベーションを促進しつつ、リスクに対応するため、人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)が公布・一部施行され、同年9月1日にはAI戦略本部の設置に係る規定等も含め全面施行されました。
この法律は、AI技術の研究開発・活用を推進しつつ、潜在的なリスクに対応するための枠組みを定めています。同法では、国が、事業者等が遵守する事項等を含む指針の整備や、悪質な事案に対する調査やその結果に基づく指導・助言等を行うことが規定されています。一方、法文上に具体的な罰則(刑事罰・罰金)規定は置かれておらず、技術開発の阻害を避けつつリスク対応を図る構成となっています。
人工知能基本計画の閣議決定(12月23日決定)
また、2025年12月23日には、「人工知能基本計画~ 「信頼できるAI」による「日本再起」 ~」が閣議決定されました。本基本計画では、「信頼できるAI」と「世界で最もAIを開発・活用しやすい国」の実現を目指すものとされ、この趣旨のもと、以下の4つの基本的方針に基づく施策が定められています。
・AI利活用の加速的推進「AIを使う」
・AI開発力の戦略的強化「AIを創る」
・AIガバナンスの主導「AIの信頼性を高める」
・AI社会に向けた継続的変革「AIと協働する」
人工知能関連技術の研究開発及び活用の適正性確保に関する指針
人工知能関連技術の研究開発及び活用の適正性確保に関する指針は、AI法第13条に基づき策定され、全ての主体におけるAIの研究開発及び活用の適正な実施に係る自主的かつ能動的な取組を促す内容が定められています。
活用事業者、研究開発機関においては、以下の事項に取り組むことが規定されています。
・AIガバナンスを構築・運用
・ステークホルダーとの信頼関係の構築に向けて透明性を確保
・技術を用いて十分な安全性を確保
・データの重要性を踏まえデータ保有者等のステークホルダーへ配慮
2026年に注目すべき事項
以上のとおり、2025年は、AI法の全面施行に伴い、人工知能基本計画やAI活用の適正性確保に関する指針が策定されるなど重要な1年となりました。
ただし、日本のAI法はリスクベースの包括的なAI規制(例:EU AI法)のような包括的な規制枠組みを設けるものではなく、引き続き企業による自主的な取組みの強化が重要です。
具体的には、既存法令(個人情報保護法、著作権法その他の知的財産法など)やソフトロー(AI事業者ガイドライン)を踏まえ、企業においてAIガバナンスに関する取組みを推進していくことが求められます。企業の取組みに当たり、2026年に注目すべき国内の動向としては、例えば以下のものが含まれます。
個人情報保護法の改正案
個人情報保護委員会は、2026年1月9日、「個人情報保護法 いわゆる3年ごと見直しの制度改正方針(案)」を公表しました。同文書では、個人データ等の第三者提供及び公開されている要配慮個人情報の取得について、統計作成等であると整理できるAI開発など統計情報等の作成にのみ利用されることが担保されていること等を条件に、本人同意を不要とする方向性が検討されています。また、経済的誘因のある、大量の個人情報の取扱いによる悪質な違反行為を実効的に抑止するための課徴金制度の仕組み等を整備する方向性についても検討されています。今後の改正動向が注目されます。
プリンシプル・コード(案)の公表
2025年12月26日、内閣府知的財産戦略推進事務局は、生成AIの利活用に伴う知的財産リスクに対応するため、「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)」を公表しました。本コード案は、生成AIの開発者および提供者に対し、透明性確保や著作権保護を中心とした行動原則を示しています。本コード案は、「コンプライ・オア・エクスプレイン」の手法が採用されており、ソフトローとして位置付けられますが、実務上は一定の規律効果を持つ可能性があると考えられます。本コード案は、2026年1月26日までパブリックコメントに付されており、今後の動向が注目されます。
欧州連合(EU)
2024年に発効した欧州連合(EU)の人工知能法(「EU AI法」)では、「リスクベースアプローチ」が採用され、AIのプロバイダーやデプロイヤーなどの事業者に対し、AIシステムのリスクレベル(禁止、ハイリスク、限定リスク等)に応じた規制が課されています。また、汎用目的AIモデルについても、特有の規制枠組みが設けられています。同法は、2024年の発効後、2027年の全面適用に向けて段階的に適用範囲が拡大されているところです。同法は、広範な域外適用ルールを設けているため、日本企業を含むEU域外の企業も同法の適用対象となり得ることを前提とした対応が必要となります。
2025年の主要動向
禁止AIに関する規制の適用開始
2025年2月2日から、EU AI法に基づき、いわゆる禁止AI(unacceptable risk)に該当するAI慣行の禁止が適用されました。これに関して、欧州委員会は、「規制(EU)2024/1689(AI法)により定められた禁止人工知能慣行に関する欧州委員会ガイドライン」が公表しています。
汎用目的AIモデルに関する規制の適用開始
続いて、2025年8月2日には、汎用目的AIモデルの規制が適用されています。これに先立ち、欧州委員会は、2025年7月に、汎用目的AIモデルのプロバイダー向けの「行動規範(Code of Practice)」を公表しました。同行動規範は、汎用目的AIモデルのプロバイダーがEU AI法への準拠を実証するための自主的枠組みと位置付けられており、プロバイダーが同規範に従うことにより、EU AI法の要件を満たしていることを示す一つの手段となります。
さらに、欧州委員会は、2025年7月18日、同行動規範を補足するガイドラインを公表し、AIバリューチェーンに関わる主体が義務を理解・遵守できるよう、関連する法的概念の明確化を図っています。
2026年に注目すべき事項
ハイリスクAIシステムの規制の適用開始(2026年8月)
現行のEU AI法のもとでは、ハイリスクAIシステムに関する規制は、附属書IIIにリストされたユースケースについては2026年8月2日、製品の安全コンポーネント、または製品そのものであるハイリスクAIシステムについては2027年8月2日から適用されることとなっています。
欧州委員会は、EU AI ActのハイリスクAIの規制の実施に向け、2025年6月にハイリスクAIシステムに関するパブリック・コンサルテーションを実施しました。欧州委員会は、EU AI法第6条(ハイリスクAIシステムの分類ルール)の実務運用に関するガイドラインを遅くとも2026年2月2日までに公表することとされています。
EU AI法では、ハイリスクAIシステムについて、一定の要件を満たす整合規格(harmonized standards)に準拠した場合には、ハイリスクAIシステムの要件に適合しているものと推定される仕組みが設けられています。現在、欧州標準化委員会(CEN)および欧州電気標準化委員会(CENELEC)において、ハイリスクAIシステムに関する整合規格の策定が進められており、順次公表されることが想定されます。公表の状況を注視して、対応する必要があります。
限定リスクAIシステムの透明性義務の適用開始(2026年8月)
いわゆる限定リスクAIシステムに適用される透明性義務は、2026年8月2日から適用が開始されます。
これに関し、欧州委員会は、2025年12月17日、AI生成コンテンツの透明性に関する行動規範(Code of Practice)の初稿を公表しました。本行動規範は、AIシステムのプロバイダー及びデプロイヤーによるEU AI法第50条に定めるAI生成コンテンツの識別・表示義務やディープフェイク等のラベリング義務等の遵守を支援することを目的としており、2026年5月から6月頃に最終版が公表される見込みとされています。
EUデジタルオムニバス法案によるEU AI法の一部見直し
以上のとおり、EU AI法のもとでは、ハイリスク(一部)と限定リスク類型のAIシステムについて、2026年に段階的に適用が開始される予定です。その一方、欧州委員会が2025年11月19日に公表したいわゆる「EUデジタルオムニバス法案」では、EU AI法の一部の規定について見直しを行う可能性を示しており、今後の立法動向には注意が必要です。
同法案では、整合規格やガイドラインの整備状況を踏まえ、特定の領域におけるハイリスクAIシステムや、EUの製品安全法制と連動するハイリスクAIシステムについて、適用時期を一定期間延期することが検討対象とされています。これにより、一部の類型については、適用開始時期が2027年以降となる可能性が示唆されています。
その他の法域
米国
AI行動計画
ホワイトハウスは、2025年7月、「AI行動計画(AI Action Plan)」を公表しました。AI行動計画は、AI分野における米国のリーダーシップと国際競争力の確保を目的とするもので、(I) AIイノベーションの加速、(II) 米国におけるAIインフラの構築、(III) 国際的なAI外交・安全保障分野における主導的役割の確立という3つの柱に基づき構成されています。
州レベルのAI規制と連邦政府の動向
米国では、EU AI法のような包括的なAI規制法は現時点で制定されておらず、州レベルでのAI規制の取組みが進められています。たとえば、カリフォルニア州のAI透明性法や、テキサス州の責任あるAIガバナンスに関する立法動向などが挙げられます。
もっとも、ホワイトハウスが2025年12月に発令した大統領令は、AIに関する連邦政府としての共通指針を示すものとして位置付けられており、連邦機関の取組みや政策調整を通じて、テクノロジー企業や規制対象産業に一定の影響を及ぼす可能性があります。今後、州レベルの規制動向と併せて、連邦政府の政策展開を注視する必要があります。
中国
中国では、2024年9月に公布された「ネットワークデータ安全管理条例」が2025年1月に施行されました。本条例はネットワークデータの処理を規範化し、データの安全を確保し、ネットワークデータの法に基づく合理的かつ効果的な利用を促進し、個人や組織の合法的権益を保護し、国家の安全と公共の利益を守ることを目的としています。
また、2025年3月に中国国家インターネット情報弁公室等4部門が「人工知能生成合成内容標識弁法(措置)」を公表し、2025年9月1日から施行されました。同弁法のもとで、オンライン情報伝達サービスを提供する事業者は、AIにより生成又は合成されたコンテンツについて、適切な表示(ラベリング)がなされていることを確保する責務が課されています。
韓国
韓国では、2024年12月26日に「人工知能(AI)の発展と信頼の構築に関する基本法」が成立し、2025年1月21日付で公布されました。本法は、AIの開発・利用の促進と信頼性の確保を目的とする包括的な基本法であり、アジア地域において先行的に制定された包括的なAI法制の一つと位置付けられます。
また、本法は一定の域外適用を想定した規定を含んでおり、韓国市場と関係するAI関連事業を行う日本企業にとっても、今後のビジネスに影響を及ぼす可能性があります。
台湾
台湾では、2025年12月23日、立法院において「人工智慧基本法(Artificial Intelligence Basic Act)」が可決されました。本法は、人間中心の人工知能(AI)の研究開発およびAI産業の成長を促進し、安全なAI応用環境を構築するとともに、デジタル平等の実現や国民の基本的人権の保護を図ることを目的としています。あわせて、技術の応用が社会倫理に適合し、国家的・文化的価値を保護しつつ国際競争力を強化することを確保するための、法的・規制上の基盤を整備するものと位置付けられています。
2026年に企業が対応すべきこと
2026年も、2025年に引き続き、AI規制の動向に注視しながらリスクアセスメントを継続し、それを踏まえた社内のAIガバナンスの構築に取り組む必要があります。
AI倫理規程・社内ガバナンスの策定・運用整備
人工知能計画や指針で言及されている「AIガバナンス」の構築に向けて、対策を継続する必要があります。AIガバナンスの策定に当たっては、AIの利活用に関連する既存の法令の遵守やAI事業者ガイドライン等のソフトローに基づく対応が課題となります。具体的には、AI倫理規程、社内ガイドライン、社内教育等を通じて、AIの適正な利活用に向けた取組みをより一層強化していくことが必要です。
EU AI法コンプライアンス(準拠)への対応
また、グローバルで事業を行う企業は、日本の法規制のみならず、海外の法規制準拠の対応も並行して行う必要があります。特に、EU AI法は、広範な域外適用ルールを定めているため、日本企業にも影響があります。2026年は、ハイリスクAIシステムに関する規制の適用が開始される重要な年であり、整合規格(harmonized standards)の策定も徐々に進んでいます。デジタルオムニバス法案による、適用スケジュールの変更動向も注視しつつ、EU AI法対応に向けて取組みを進める必要があります。具体的には、①規制の適用の有無の精査をもとに、②自社に適用される規制要件を確認し、③規制遵守のための取組みを進める必要があります。
コンタクト
荒木 昭子 (Akiko Araki)
弁護士・カリフォルニア州弁護士・弁理士
akiko.araki@arakiplaw.com
CV: https://arakiplaw.com/our-people/araki/
[荒木法律事務所について]
荒木法律事務所(Araki International IP&Law “AIL”)は、「世界で輝く日本企業を応援する」ことをビジョンとして、2021年に創設された法律事務所です。クロスボーダーの知的財産・テクノロジー分野を主に取り扱っています。
AI分野では、AIのリスクアセスメント・ガバナンス構築等の経験を有しております。さらに所外専門家等とのネットワークも構築しており、EU AI法コンプライアンスにも対応いたします。
免責
本ニュースレターは、当事務所のクライアントの皆様、当事務所所属弁護士と名刺交換させていただいた皆様、及び、当事務所が主催又は後援するイベントにご参加いただいた皆様宛てに、一般的な情報提供を目的としてご案内しております。本レターが法的アドバイスを構成するものではないことにご留意ください。
配信を希望される場合、その他お問合せにつきましては、お手数ですがメールでご連絡ください。また、当事務所のプライバシーポリシーはこちらからご覧いただけます。
© Araki International 2026