NEWS

お知らせ・活動報告

「責任あるAI推進基本法(仮)」を本日公表しました。

2月16日。昨年4月のAIホワイトペーパー発表以降、半年以上にわたり生成AIの法的ガバナンスのあり方について国内外のローメーカー、学者、実務家の方などと議論を重ねてきました。こうした検討を踏まえ、「フロンティアAIモデル」と呼ばれる特に強力な生成AIに対する我が国の新たな法的ガバナンスの一つの私案として、「責任あるAI推進基本法(仮)」を本日公表しました。 22年11月のChatGPT公表以来、国内外で多くの生成AIサービスが登場し経済社会のあり方を変えようとしています。利用促進に向けて各種政策の総動員を進めてきた一方で、これら各種生成AIサービスの裏側でその性能を左右する「基盤モデル」に対するガバナンスの議論は未だ発展途上。欧米中がガイドラインなどを中心としたソフトローから、一定の罰則を伴うハードローの導入に進む中、日本としても早急に法的ガバナンスの枠組みを定める必要があります。 以下、「責任あるAI推進基本法(仮)」の主なポイントです。 ・適切なAIガバナンスの導入により、AIによるリスクの最小化と利益の最大化の両立を図ることを目指します。 ・指定の対象となるのは特に社会的影響力の大きなフロンティアAIモデルと呼ばれる「特定AI基盤モデル」に限定。規模の小さいモデルやスタートアップ起業の取り組みなどは対象とすることを想定していません。 ・特定AI基盤モデルを開発する企業には、第三者による脆弱性検証やモデルの基本仕様の公表など7項目の体制整備が課せられます。いずれの項目も、大手AI企業が昨年米国政府に対して自主誓約として約束した内容と基本的に整合するものです。 ・ただし、体制整備に求められる具体的な基準(例えば、レッドチームテストの規模や回数、サイバーセキュリティの水準など)については、技術の進歩のスピードに遅れないよう、事業者団体等の民間が主体で決めていくことを想定。(このようにWhatを国が決めて、Howを民間が定める官民協力による規制体系は、一般に「共同規制」モデルと呼ばれます。) ・特定AI基盤モデルの開発者は、体制整備の遵守状況について定期的に政府(または今般立ち上がったAIセーフティインスティテュート)に報告する義務が課せられ、政府はその内容をチェックし、必要に応じて公表や指導・監督を行います。 ・なお、欧州のAI規則とは異なり、特定のAI基盤モデルやサービスをその内容に照らして直ちに禁止したり規制をかけたりすることは想定していません。 今後法制化に向けて広く意見を募り議論を深めていく予定です。賛否のご意見やより優れた対案のご提案は大歓迎です。本案が生成AIのガバナンスに関する国内議論を促進・成熟させる一助となることを願っています。
一覧へ戻る