脚注を含むフルバージョン(日本語版)はこちらからご覧ください。また、英語版はこちらからご覧ください。
2024年12月26日、AI戦略会議及びAI制度研究会による「中間とりまとめ(案)」が公表されました。本中間とりまとめ案は、イノベーション促進とリスクへの対応の両立の観点から、従来のガイドライン等のソフトローによる対応を基本としつつ、対応は事業者の自主的な努力による対応が期待できないものに限定して法制度による対応を行うべきであるとの方向性を示しました。これを受けて、石破総理大臣は、AIのイノベーション加速とリスク対応を両立させる新たな法案を早期に国会に提出できるよう、対応を進めていくとの方針を示しました。
I. これまでの動向
EUにおいて包括的なAI法規制であるEU AI法が成立するなど、国際的にAIの法規制の議論が進んでいます。これまで、日本では、包括的なAI法規制ではなく、AIに起因するリスクや問題の対処にあたって、各分野の所轄官庁が法令やソフトローにより対応してきました。
このようななか、2024年7月に、AI戦略会議のもと、AI制度の在り方について検討をすることを目的として、AI制度研究会が設置されました。AI制度研究会では、事業者、有識者、自治体を含む様々な関係者からヒアリングを行い、法制度の要否を含む、AI制度のあり方について検討されてきました。今般、AI戦略会議及びAI制度研究会による「中間とりまとめ(案)」(以下「中間とりまとめ案」といいます。)が公表され、今後の我が国のAI法制度の在り方についてとりまとめられました。
本稿では、中間とりまとめ案の内容と、それを踏まえた政府の対応状況について概説します。
II. 中間とりまとめ案の概要
1. 今後の法制度に関する基本的な考え方
1.1 イノベーションの促進とリスクへの対応の両立
中間とりまとめ案は、まず、AI政策についての基本的な考え方として、イノベーションの促進とリスクへの対応の両立が必要であるという観点を示しました。
そして、法規制とソフトローの利点・欠点両面について検討し、日本の企業等の順法意識の高さも踏まえると、過度な規制はイノベーションを阻害する可能性があることを指摘しました。そのうえで、イノベーション促進とリスクへの対応の両立を確保するため、法令とガイドライン等のソフトローを適切に組み合わせ、基本的には、事業者の自主性を尊重し、法令による規制は事業者の自主的な努力による対応が期待できないものに限定して対応していくべきであるとの基本的な方針を示しました。
1.2 国際協調の推進
AIのガバナンスをめぐっては、「広島AIプロセス」の成果やOECDの取組み等、多国間の枠組みにおいて活発な議論がなされています。これを踏まえ、中間とりまとめは、AIに係る制度・施策の実施にあたっては、これら国際的な枠組等において合意あるいは認められた取決や考え方を踏まえ対応すべきであるとの考えを示しました。
また、我が国の事業者の円滑な海外進出や、我が国の国民の全世界のAIサービスへのアクセスのため、満たすべき安全性等にかかる国際的な規範と我が国の規範との間の整合性や相互運用性の確保が重要であるとの考えも示されました。
2. 具体的な制度・施策の方向性
以上の基本方針にのっとって、中間とりまとめ案では、具体的な制度・施策の方向性として、大要、①政府の司令塔機能の強化、②AIの安全性向上のための透明性・適正性確保のために必要な事項や重大インシデント等の政府の調査・情報収集ための法制度による対応、③政府による利用等の促進とガイドラインの整備、などの項目が挙げられました。
2.1 政府の司令塔機能の強化、戦略の策定
個別のリスクへの対応については、既存法等を中心とする対応が前提となるものの、AIについては横断的な対応が必要なケースもあるため、全体を俯瞰する政府の司令塔機能の強化、戦略の策定が必要であると指摘されました。これについては、AIの司令塔機能の強化や、司令塔による関係行政機関に対し協力を求めることができる等の権限を明確化するため、法定化すべきであるとの考えが示されました。
2.2 安全性の向上のための取組み
AIの安全性の向上のための透明性・適正性確保のために必要となる取組みについて、中間とりまとめ案は、次の考えを示しました。
i. 透明性・適正性の確保:
・まず、適正性の確保にあたっては、広島AIプロセス等の国際的な規範の趣旨を踏まえた指針を政府が整備等し、事業者に対し各種規範等に対する自主的な対応を促していくことが適当である。
・また、透明性の確保を含む適正性の確保については、調査等により政府が事業者の状況等を把握し、その結果を踏まえて既存の法令等に基づく対応を含む必要なサポートを講じるべきである。政府による事業者の状況等の把握や必要なサポートについては、事業者の協力なしでは成り立たないため、国内外の事業者による情報提供等の協力を求められるように、法制度による対応が適当である。
ii. 国内外の組織が実践する安全性評価と認証に関する戦略的な促進:
・また、事業者が自主的に取り組む安全性評価や第三者による認証などを活用することも一つの有効な手段となると考えられる。
iii. 重大インシデント等に関する政府による調査と情報発信:
・AIは近年急速な発展を遂げており、様々なリスクが増大するなか、AIの開発、提供、利用等に関する実態をまず政府において情報収集・把握したうえで、企業秘密等に配慮しつつ、必要な範囲で国民に情報提供を行うことが適切である。
・また、AIの利用に起因する重大な事故が実際に生じてしまった場合、政府としては、その発生又は拡大の防止を図るとともに、AIを開発・提供する事業者による再発防止策等について注意喚起を行っていく必要がある。
・そのうえで、この調査や情報発信は事業者の協力なしでは成り立たないため、国内外の事業者による情報提供等の協力を求められるように、法制度による対応が適当である。
2.3 政府による調達・利用についてのガイドラインの整備
さらに、我が国における、個人及び企業による AIの利用率は、他国と比較すると著しく低迷している状況を指摘し、国際競争力の確保のため、まずは政府が率先してAIを利用し、国民による活用を促進するとの考え方も示されました。
AIに特化した政府調達ガイドライン等の整備や既存のAIに関するガイドライン等の深掘りなどを行うことが重要であるとの考え方が示されました。
III. 中間とりまとめ案を踏まえた立法等の方針
中間とりまとめ案は、2025年1月23日までパブリックコメントに付されています。また、中間とりまとめ案を受けて、石破総理大臣により、大要、以下の方針が示されました。
・中間とりまとめ案に沿って、AIのイノベーション加速とリスク対応を両立させる新たな法案を早期に国会に提出できるよう、対応を進めていく。
・政府におけるAI政策の司令塔機能を強化するため、全閣僚からなる「AI戦略本部」を設置する。
・AIの調達・利用のガイドラインを整備する。各省庁や自治体において、インフラなどにおけるAIの導入実態を把握し、ガイドラインの見直しなどの対応を進める。
・「広島AIプロセス」にのっとった指針を整備し、民間事業者による遵守を促すとともに、悪質な事案の調査やAI開発者からの情報収集など、必要な対策を講ずる。
・偽情報対策などの技術開発や、AIの安全性に関する基準や評価方法の策定も支援する。
IV. まとめ
以上に説明しましたように、AI制度研究会における中間とりまとめ案を踏まえ、今後、我が国では、AIガバナンスについて、ガイドライン等のソフトローによって事業者の自主的な取組みにゆだねることを基本としつつ、政府の司令塔機能を強化したうえで、政府の調査・情報収集権限といった限定的な法制度を導入する方向性が示されました。
このように、日本においては、AIのリスクに対応する新たな法制度が導入される見込みであり、事業者としては、今後の政策動向を引き続き注視する必要があります。
また、中間とりまとめ案によると、新たな法制度は、ガイドライン等の既存の枠組みによる取り組みを補完するものとして位置付けられるものと考えられます。したがって、事業者としては、「AI事業者ガイドライン」など、引き続き我が国の既存の制度・ガイドラインを踏まえた取組みを通じて、AIの利活用をめぐるリスクへの対応を進めていくことが必要です。また、その過程では、自社事業のスコープによっては、EUにおける包括的なAI法規制である欧州AI法など、国際動向も踏まえた対応が必要となるため、先手を打った対応が必要です。
[AIL AIニュースレターシリーズ]
* 我が国における従来の政策その他の取組みの動向については、こちらをご参照ください。
* 「欧州AI法」については、こちらをご参照ください。