日本は、民主主義や基本的人権等の観点からは欧米と同様の立場である一方、文化や社会規範の差異により、AIに対する社会認識という点では、欧米とは異なる文化圏にある。これにより、AIガバナンスの方向性として、欧州が法的拘束力の強いハードローを志向しているのに対し、日本は現時点では、AIガバナンスに関する横断的な法規制によるアプローチではなく、民間事業者の自主的な取組を重んじるソフトローアプローチを志向しており、総務省と経済産業省を中心に取組が行われてきたところである。総務省のAIネットワーク社会推進会議による「AI開発ガイドライン」29が2017年に、「AI利活用ガイドライン」30が2019年に公表され、また同年3月に内閣府の統合イノベーション戦略推進会議が決定した、「人間中心のAI社会原則」31を基にしたガイドラインが策定された。続いて2021年7月に経済産業省が公表した「AI原則実践のためのガバナンス・ガイドライン」(2022年1月に改訂)32では、AI事業者が実施すべき行動目標が実践例と共に示されている。同ガイドラインは、AIを開発・運用する事業者が参考にし得るよう、環境・リスク分析やシステムデザイン、運用等の項目毎にまとめられている。
2023年5月、政府は「AI戦略会議」を設置し、AIのリスクへの対応、AIの最適な利用に向けた取組、AIの開発力強化に向けた方策等、様々なテーマで議論を行い、「AIに関する暫定的な論点整理」33を公表すると共に、各省庁のガイドラインの統合に向けた作業を進めることとされた。同年9月には、同会議にて生成AIに対するガバナンスも含めて統合された「新AI事業者ガイドライン スケルトン(案)」が示され、そして12月、政府は「AI事業者ガイドライン案」を公表した。同案では、人権への配慮や偽情報対策を求め、安全性やプライバシー保護等の10原則を掲げ、人間の意思決定や認知・感情を不当に操作するものは開発させないとしているが、欧米のような一定の法的拘束力を持つものではない。同案はその後、一般からの意見の公募を経て、2024年4月19日に「AI事業者ガイドライン(第1.0版)」として公表された。
また、2023年12月のAI戦略会議において、岸田総理大臣は、AIの安全性に対する国際的な関心の高まりを踏まえ、AIの安全性の評価手法の検討等を行う機関として、米国や英国と同様に、日本にも「AIセーフティ・インスティテュート(AI Safety Institute)」(以下「AISI」という。)34を設立すると発表し、2024年2月14日、経済産業省所管の情報処理推進機構(Information-technology Promotion Agency:IPA)に設置された。AISIは、英国・米国等の同様の機関とも連携しつつ、AIの開発・提供・利用の安全性向上に資する基準・ガイダンス等の検討、AIの安全性評価方法等の調査、AIの安全性に関する技術・事例の調査などを行っていくこととしている。
29 総務省,「AIネットワーク社会推進会議 報告書2017の公表」,<https://www.soumu.go.jp/menu_news/s-news/01iicp01_02000067.html>
30 総務省,「AIネットワーク社会推進会議 報告書2019の公表」,<https://www.soumu.go.jp/menu_news/s-news/01iicp01_02000081.html>
31 内閣府,統合イノベーション戦略推進会議決定,「人間中心のAI社会原則」,<https://www8.cao.go.jp/cstp/aigensoku.pdf>(2024/3/12参照)
32 経済産業省,「AI原則実践のためのガバナンス・ガイドライン ver. 1.1」,<https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20220128_report.html>(2024/3/12参照)
33 内閣府 AI戦略会議「AIに関する暫定的な論点整理」,<https://www8.cao.go.jp/cstp/ai/ronten_honbun.pdf>(2024/3/12参照)
34 AIセーフティ・インスティテュート,<https://aisi.go.jp/>(2024/3/12参照)