脚注を含むフルバージョン(日本語版は)こちらからご覧ください。また、英語版はこちらからご覧ください。
韓国では、2024年12月26日に「人工知能(AI)の発展と信頼の構築に関する基本法」が成立し、2025年1月21日付で公布されました。本法は、幅広い域外適用ルールを有していることから、日本企業のビジネスに影響する可能性があります。
I. はじめに
人工知能(以下「AI」といいます。)をめぐる規制や法的枠組みに関する議論が世界各国で活発に行われています。なかでも、韓国において、2024年12月26日に「人工知能(AI)の発展と信頼の構築に関する基本法」(以下「AI基本法」といいます。)が可決され、2025年1月21日付で公布されたことは注目に値します。
AI基本法は、2024年11月までに国会に提出された19のAI関連法案 を統合したもので、264人中260人の議員の賛成を得て可決され、2025年1月21日に公布されました。AI基本法は、2024年8月に発効したEUのAI法(EUのAI法については、前回のニュースレターをお読みください。)に続き、アジア地域では初、世界レベルでは2番目に成立したAIに関する包括的な枠組みです。
AI基本法は、幅広い域外適用ルールを採用しており、多くの日本企業のビジネスに影響を及ぼす可能性があるため、本稿では、AI基本法の内容を概説します。また、AI基本法は、欧州連合(EU)におけるAIに関する調和的なルールを定めたAI法(以下「欧州AI法」といいます)と多くの点で類似しているため、欧州AI法と比較しつつ、その特徴を明らかにします。
II. 韓国で新たに制定された「AI基本法」の概要
1. AI基本法の目的
2024年12月26日に韓国の国会本会議が可決したAI基本法は、「人工知能の安全な発展と信頼の構築に必要な基本事項を規定することにより、国民の権利と尊厳を保護し、生活の質を向上させ、国家競争力を強化する」ことを目的としています。AI基本法は、AIに関する国内協力体制を発足させるための理想的な条件を促進し、AI分野の発展を可能にし、そのような技術の使用に関連するリスクの発生を防止するための法的基盤を形成することに焦点を当てています。AI基本法は、一般的に2026年1月22日から施行されると定められているため、対象となるAI事業者に対して、本法に従うまでに1年の猶予期間を与えています。AI基本法は、本法の適用タイムラインに関する一般ルールに関して1つだけ例外を設けており、デジタル医療機器に関する第2条第4項は2026年1月24日に施行されます。
なお、AI基本法への対応を十分に理解するためには、高影響AIの定義、計算のしきい値及び安全対策など、下位法令や分野別ガイドラインの導入に関する動向を把握する必要があります。
AI基本法は、(i)AIの発展及び信頼基盤の構築を支援する包括的なガバナンスの創出、(ii)技術及び産業の発展を促進するための措置、(iii)AI事業者の具体的な義務と責任の明確化、(iv)事実調査及び罰則の4つの主要部分から構成されています。以下、それぞれについてご説明いたします。
2. AIの発展及び信頼基盤の構築を支援する包括的なガバナンスの創出
まず、AI基本法では、関連政策を総合的に推進するための具体的な制度的枠組みの創設が規定されています。特に、科学技術情報通信部(以下「MSIT」といいます。)は、AI技術と関連産業を振興するためのAI基本計画(以下「基本計画」といいます。)を3年ごとに策定し、実施することが求められています。当該基本計画は、AI基本法第7条に基づき設置される国家AI委員会の審議及び議決を経て策定されます。同委員会は、大統領が委員長を務め、AIに関する政策、投資、インフラ、規制に関する事項を審議します。また、AI基本法は、AI関連政策及びイニシアチブの組織的かつ一貫した開発や実施を保証するため、AI政策センター、AI安全研究院、韓国AI振興協会を含む他の機関の法的根拠も定めています。
3. 技術及び産業の発展を促進するための措置
次に、AI基本法は、政府に、AIの利用から生じるリスクを軽減し、信頼を高め、AIとその影響を受ける産業の発展を確保するための支援策を策定することを求めています。例えば、本分野における研究開発の促進、情報流通の円滑化、産学連携の円滑化、人工知能の安全な開発・利用のための啓発事業の実施、民間セクターによるAI技術の標準化の精緻化・支援などが挙げられます。さらに、政府は、訓練データの作成、収集、管理、配布、利用を促進し、データセンターの設立と運営も奨励します。これに加えて、AI基本法では、政府はAIの安全性、信頼性、アクセシビリティに関するAI倫理原則(以下「倫理原則」といいます。)の策定や公表を行うことができると定められています。
4. AI事業の具体的な義務と責任の特定
さらに、AI基本法は、AI事業者の具体的な義務と責任を定めています。同法がAI事業者に課す義務は、(i)大規模なAIシステムに関する義務、(ii)高影響AIに関わる事業者に対する義務、(iii)生成型AIに関する義務、(iv)国外事業者に対する義務、に分けられます。
4.1. 大規模AIシステムの義務:リスク管理体制の確立
AI基本法第32条に基づき、自社のAIシステムが大統領令で定める訓練用累積計算量の閾値を超えるAI事業者は、AIに関連する潜在的なリスクを評価し、リスク管理システムを構築しなければならないとされています。このリスク管理システムは、AIに関連する安全事故の監視と対応に使用され、その結果はMSITに提出されなければならないとされています。
4.2 高影響AIシステムに関わる事業者の義務
影響度の高いAIシステム(AI基本法第2条第4項に定義)を自社の製品・サービスに組み込む事業者に課されるAI基本法上の義務には、以下のようなものが含まれます:
- AI事業者は、利用者に対し、提供する商品・サービスがAIを活用したものであることを事前に告知する;
- AI事業者は、自社のAIシステムが影響度の高いAIシステムの定義に該当するかどうかを事前に評価し、必要に応じてMSITに確認を求める必要がある;
- 高影響AIシステムを自社の製品・サービスに組み込むAI事業者は、利用者保護措置、使用するAIシステムに関する説明の実施、高影響AIの人的監視・監督の確保、安全性・信頼性に関する措置に関する文書の作成・保存等、AI基本法第34条に掲げる措置を実施することにより、安全性・信頼性を確保しなければならない;
- AI事業者は、影響度の高いAIを活用した商品・サービスを提供する場合、基本的人権に及ぼす潜在的影響を評価しなければならない。
4.3 生成型AIに関連する義務
生成型AI(AI基本法第2条第5項に定義)の製品・サービスを提供する事業者は、事前の告知を加えて、それらの出力が人工的に作成されたものであることを表示しなければならないとされています。また、音声、画像、映像などのAIシステムによって生成されたコンテンツが現実と区別がつきにくい場合(ディープフェイクなど)には、AI事業者は利用者に通知する必要があります。
4.4 域外適用と国外事業者に対する義務
AI基本法は、幅広い域外適用のルールを採用しており、「大韓民国の国内市場又は利用者に影響を及ぼす海外でのいかなる活動にも適用される」とされていることから、日本企業もAI基本法の適用を受ける可能性があります。また、大統領令が定める一定のユーザー数及び売上高基準を満たすAI事業者は、韓国に住所または事業所がない場合、国内代理人を選任しなければならないとされています。当該代理人は、AI事業者がAI基本法に規定された義務を遵守することを保証するものとされます。ただし、国内代理人が同法に課された義務に違反したり遵守しなかったりした場合には、AI事業者が責任を負うことになる点に留意する必要があります。
このように、AI基本法は国外事業者にも適用されるため、この義務は、日本国内でAIシステムを開発または使用しているものの、その行為が韓国国内市場または韓国領土内のユーザーに影響を及ぼす日本企業にも大いに関係することになります。この場合、日本企業は2026年1月22日の期限までに上記の義務を遵守する必要があります。既に述べたように、韓国に住所や事務所を持たない企業が国内代理人を指定しなければならないかどうかを把握するためには、大統領令の状況をモニタリングすることが必要となります。
5. 事実調査及び罰則
AI基本法第40条は、(i)第31条に基づく透明性の確保、(ii)第32条に基づくリスクマネジメントシステムの導入、(iii)第34条に基づく影響度の高いAIシステムの安全性及び信頼性を確保するための措置の実施など、AI基本法が課す義務に違反する疑いがある場合、違反が特定された場合又は報告された場合に、MSITが調査を行う権限を付与しています。調査の結果、AI基本法の違反が発見された場合、MSITはAI事業者に必要な措置を命ずることができます。AI事業者の間では、AI基本法はMSITに対して苦情や通報に基づく調査の権限を広範に付与することになり、規制の不透明性や守秘義務リスクにつながるのではないかという懸念が広がっています。MSITは、このような問題を緩和するため、今後の規制を通じて詳細な調査基準を定めることを確約しています。
AI事業者に課された義務及び一般的にAI基本法に規定された規則の違反に対してMSITが下す命令に従わない場合、最高3,000万ウォンの罰金が科される可能性があります。
III. 「AI基本法」と「EU AI法」の比較
AI基本法は、AIに関する最初の包括的な規制枠組みである欧州AI法の規定と類似しており、同法から一定の影響を受けたものと考えられます。
第一の類似点として、いずれの規制も、AIがより強いリスクをもたらす分野を特定することによってAIシステムの分類を提示し、リスクベースのアプローチを用いています。ただし、リスクベースアプローチの具体的な内容については、次の2つの相違点があります。まず、欧州AI法が4つの異なるレベルのリスク(すなわち、許容できないリスク、高リスク、限定リスク、最小リスク)を提示しているのに対し、AI基本法は2種類のAIシステム(すなわち、高影響AIと生成AI)のみを提示しています。さらに、欧州AI法では、第5条で、一定の類型の許容されないAIシステムについて、その利用を禁止しています。これに対し、韓国のAI基本法は、生命、個人の安全、基本的権利に対する危険性にかかわらず、特定の種類のAIシステムを禁止する規定を置いていません。
次に、第二の類似点として、両規制には、透明性に関する義務(EU AI法50条、AI基本法31条)、リスク管理システム、文書化及び監督(EU AI法9条~15条、AI基本法32条及び34条)、法律の施行とAIの発展を監督する強固な制度的なシステムの確立(EU AI法第7章、AI基本法7条、11条、12条、26条)が含まれています。
さらに、第三の類似点として、EUで採用されている法的枠組みと韓国で公布されたばかりの法的枠組みは、いずれも域外適用に関する規定を含んでいます。
他方、罰則に関しては大きな違いがあります。両規制には強制執行の仕組みが盛り込まれているものの、違反した場合に適用される罰金の重さに関しては著しい相違があります。AI基本法を遵守しなかった場合、最高3,000万ウォン(約300万円/2万ユーロ)の罰金が科される可能性があるが、EUのAI法で規定されている罰則は3,500万ユーロ(約56億円)、あるいは全世界の年間売上高の7%にも上ります。
IV. 法規制の意義と今後の動向
AI基本法の制定は、韓国にとって重要なマイルストーンであり、責任あるAIのポテンシャル利活用を特徴とし、リスク軽減した環境づくりに向けて、韓国が飛躍的な前進を遂げるというコミットメントを示すものです。とりわけ、AI技術は私たちの生活の一部となり始め、多分野に大きな影響力を持つという背景があります。同法に定められた義務を遵守するための指針をAI事業者に提供するために、AI開発に関するさらなる下位法令や政策が採択されることが期待されている状況です。
[AIL AIニュースレターシリーズ]
- [日本] AI戦略会議・AI制度研究会「中間とりまとめ(案)」の公表: AIをめぐる新たな法制度の方向性、2025年1月9日
- [日本] 日本における AI をめぐる政策その他の取組みの動向、2024年10月31日
- [EU] EU AI法:新規則がもたらす主な影響、2024年9月6日