日本政府、AI法案の全容が明らかに
政府が2025年の通常国会に提出するAI法案の全容が判明しました。この法案では、犯罪などの不正目的でAIが開発・利用されるおそれがある場合、政府が事業者へ調査や指導を行う権限を持つことが盛り込まれています。ただし、罰則規定は見送られる見通しです。
また、政府のAI戦略会議は今年2月、開発促進と安全確保の両立を目指す新法整備の基本方針となる中間とりまとめを決定しました。この中では、AIによる人権侵害やサイバー攻撃などへの悪用リスクに対応するため、悪質な場合は国が実態調査を行い、事業者名を公表する規定を盛り込むことになっています。AIによる著しい人権侵害が確認された場合や、指導しても改善が見られない場合に事業者名が公表される見込みです。
解説
日本政府は規制と革新のバランスを重視しています。罰則ではなく、悪質事例の公表によって企業に自主的な対応を促す方針です。これは過度な規制がイノベーションを阻害する可能性を考慮した結果と考えられます。企業にとっては、AIの利用・開発において不正目的への悪用防止策を自主的に講じることが求められることになります。
EUのAI規制法が世界基準に
2024年5月に世界初となる包括的なAI規制である「欧州(EU)AI規制法」が成立し、8月1日に発効しました。今後、規制内容に応じて2030年12月31日までに段階的に施行されていきます。
EU AI法の施行時期は規制内容によって分かれており、禁止されるAIの利用行為に関する規制などは2025年2月2日から、汎用AIモデル(GPAI)に関する規制などは同年8月2日から、残りの多くの規定は2026年8月2日から適用が開始する予定です。
AI規制法はリスクに基づいたアプローチを採用しており、AIシステムを潜在的なリスクに応じて分類しています。禁止されているのは、行動操作や搾取、社会的統制を可能にするような許容できないリスクをもたらすAIシステムです。
また、EU域外に拠点を置く企業がハイリスクAIシステムをEU市場に投入したり、サービス提供を開始する前には、EU内の認定代理人を文書による委任状で任命しなければならないとされています。
Gartnerによれば、EU一般データ保護規則(GDPR)がプライバシー関連規制における世界のデファクト・スタンダードになったように、EUのAI規制法も今後、他の国々の規範となって広がる可能性が高いとされています。
解説
EUのAI規制法は世界で初めての包括的なAI規制となり、世界標準になる可能性が高いとされています。AIのリスクレベルに応じた規制アプローチを採用しており、特に高リスクAIには厳格な要件が課されます。日本企業を含むEU域外企業もEU市場でビジネスを行う場合は対応が必要です。代表的な規制内容としては、認定代理人の任命、リスク評価の実施、透明性の確保などがあります。
米国と中国のAI規制動向
米国では2023年10月、AIの安全性確保に向けた大統領令が発令され、議会でもAI規制に関する法案作りが進められています。
中国では、AIの倫理問題についても関心が高まっています。2022年11月には「AI(人工知能)倫理ガバナンスの強化に関する中国の立場文書」が提出され、倫理先行のAIガバナンス、偏見と差別の低減、責任あるAIの使用の提唱、国際的なAIガバナンスの枠組みおよび規格の形成促進といった、中国政府のAI倫理についての立場が示されています。
また、2022年9月には中国初の地方自治体レベルのAI規制「AI産業の発展促進に関する上海市条例」が公表され、今後中国におけるAI倫理規制の動きはさらに活発になる見込みです。
解説
米国と中国もそれぞれAI規制の整備を進めています。米国では大統領令による指針が示され、法整備が進行中です。中国では倫理面からのアプローチが特徴的で、国際的な枠組み形成への参画も意識しています。世界の主要国がそれぞれ独自の規制を策定する中、グローバルに事業展開する企業は各国・地域の規制に対応する必要があります。
広島AIプロセス – 国際的な協調の動き
2023年、広島で開催されたG7サミットでは、生成AIに関する国際的なルールの検討を行うため「広島AIプロセス」が立ち上げられ、10月には「広島AIプロセスに関するG7首脳声明」が発表されました。
「広島AIプロセス包括的政策枠組み」の内容は、「生成AIに関するG7の共通理解に向けたOECDレポート」「全てのAI関係者向け及びAI開発者向け広島プロセス国際指針」「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」「偽情報対策に資する研究の促進等のプロジェクトベースの協力」の4つとなっています。
特に「全てのAI関係者向け及びAI開発者向け広島プロセス国際指針」では、安全、安心、信頼できるAIの実現に向けて、AIライフサイクル全体の関係者それぞれが異なる責任を持つという認識のもと、12の項目が整理されており、開発者から利用者に至るまでAIに関わる全ての関係者が守るべきルールの原型が先進国を中心にまとまりました。
解説
G7を中心とした国際的な協調の動きも活発化しています。「広島AIプロセス」は世界的なAIガバナンス確立への第一歩と言えるでしょう。特に重要なのは、開発者だけでなく利用者を含むAIに関わる全ての関係者の責任が明確にされたことです。これにより、AIのライフサイクル全体を通じた安全性確保の枠組みが整いつつあります。
企業に求められる対応
Gartnerは日本企業に対し、AIを誤って使った場合には、人権やその他の権利侵害、精神的あるいは肉体的苦痛をもたらすほどの潜在的リスクがあり、法律の有無にかかわらず炎上し、企業としての信頼を大きく失うことになると警告しています。
企業は、AIシステムの法的・倫理的意味合いと使用目的について従業員を教育し、新たな責任とコンプライアンスに対応できるようにする必要があります。また、AI運用における透明性を確保し、社会的信頼を構築・維持することで、AIソリューションの長期的な実行可能性と受容を確保することが重要です。
さらに、規制の要件に従ってAIの実行を継続的に監視・指導するために、AI倫理とガバナンスの専門チーム、または部署を設置することが推奨されています。
Gartnerは、AIのリスクに対する必要な取り組みを「AIのトラスト/リスク/セキュリティ・マネジメント (AI TRiSM)」と定義し、整理しています。企業は、そうした実践的な取り組みを通して、リスクを軽減させる努力を継続していく必要があります。
解説
企業は法規制の有無にかかわらず、AIの倫理的な利用と適切なガバナンス体制の構築が求められています。具体的には、従業員教育、透明性の確保、専門チームの設置、リスク管理体制の構築などが挙げられます。こうした取り組みは単なる規制対応ではなく、AIを活用した事業の持続可能性を確保するために不可欠な投資と考えるべきでしょう。
AI規制とイノベーションの両立
AI規制法には、AIの開発・利用を促進するイノベーション支援の観点も含まれています。具体的には、サンドボックス環境の活用が想定されており、規制監督下のもと、現実世界と同じ条件でAIシステムを開発、トレーニング、検証、テストする機会をAIシステムプロバイダーに提供することが考えられています。
倫理的な境界線と規制要件を尊重し、技術的進歩と社会的責任のバランスを保ちながら、イノベーションを起こす環境を醸成することが重要です。
AI規制法への対応を単なる規制対応にとどめず、規制が見据えるこれからの社会において求められるガバナンスを事業活動に組み込むことが、競争力の向上や差別化の要素の1つになると考えられます。
解説
AIの規制は開発を抑制するものではなく、健全な発展を促進するための枠組みとして捉えるべきです。特にEUのAI規制法では、サンドボックス環境の活用など、イノベーションを支援する仕組みも取り入れられています。企業はこうした枠組みを活用しながら、規制対応を競争優位性につなげる視点を持つことが重要です。
今後の展望と課題
EU AI法の条文には不明確な文言も多く残されています。今後、欧州委員会は、AI法の重要な規定の解釈に関わるガイドラインを公表することが予定されており、AIシステムの定義や禁止されるAI利用行為に関するガイドラインは2025年1月までに公表される見込みですが、その他のガイドラインについては現時点では具体的な公表時期は未確定です。
AI法は、規制への違反に関して制裁金を定めています。違反内容に応じて非常に高額な制裁金が定められている点に注意が必要です。
日本政府も生成AIに関するAI推進基本法(仮)の整備に向けた議論を進めており、2025年度中にその具体的な方針を明示することを目指しています。
解説
AI規制は今後も各国・地域で整備が進み、詳細なガイドラインが順次公表される見込みです。特にEUのAI法は違反に対する高額な制裁金が設定されるなど、企業にとって無視できないリスクとなっています。日本でも規制の枠組み作りが進行中であり、国内企業も動向を注視しながら準備を進める必要があります。
まとめ:企業が今すぐ取り組むべきこと
世界各国でAI規制の整備が急速に進む中、企業は以下の点に取り組むことが重要です。
- AIリスク評価の実施:自社が開発・利用するAIシステムのリスク分類を行い、高リスクに該当する場合は優先的に対応する
- AI倫理ガイドラインの策定:国際的なガイドラインや各国の規制を踏まえた自社のAI倫理ガイドラインを整備する
- ガバナンス体制の構築:AI倫理・ガバナンスを担当する専門部署・担当者の設置、モニタリング体制の確立を行う
- 従業員教育の実施:AIの法的・倫理的側面について従業員への教育・啓発を行う
- 透明性と説明責任の確保:AIシステムの意思決定プロセスの透明性を高め、外部への説明責任を果たせる体制を整える
- 国際的な規制動向の継続的モニタリング:世界各国の規制動向を継続的に把握し、適切に対応する
AI技術の急速な発展により、規制も常に変化しています。企業はこうした変化に柔軟に対応しながら、AIの持つ可能性を最大限に活かすための取り組みを進めることが求められています。