2023年5月、OpenAIは、今後10年以内に人間の専門家のスキルレベルを超えるAIシステムが実現する可能性があると発表した。同社はこれを「フロンティアAI(Frontier AI)」と命名し、核エネルギーや合成生物学等の人類の存在上のリスクに鑑みて、事後的対応ではなく国際的な規制を検討すべきとした。これを受けてスナク英国首相は、2023年11月1日〜2日に英国ブレッチリーにて、「AI安全性サミット」7を開催した。従来の人権や公平性といった「AI倫理」を超えて、AIによる「深刻且つ破滅的な危害」の防止を視野に入れた「AIの安全性」について議論されたことが特徴的である。
本サミットの成果文書として「ブレッチリー宣言」8が採択された。また、英国はAIセーフティ・インスティテュートを設置することについても決定した。
2024年5月21日〜22日には、韓国・英国共催により「AIソウル・サミット」が開催された(21日の首脳セッションはオンライン開催、22日の閣僚セッションはソウルで対面開催)。AI安全性の議論を深めるとともに、AI開発におけるイノベーション促進及びAIの恩恵の公平な享受について議論が行われ、首脳級の成果文書として「安全、革新的で包摂的なAIのためのソウル宣言」及び付録「AI安全性の科学に関する国際協力に向けたソウル意図表明」、閣僚級の成果文書として「安全、革新的で包摂的なAIの発展のためのソウル閣僚声明」が採択された。今後、2025年2月にフランスにて次回会合が開催される予定となっている。
7 GOV.UK, “About the AI Safety Summit 2023”,<https://www.gov.uk/government/topical-events/ai-safety-summit-2023/about>(2024/3/12参照)
8 GOV.UK, “The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023”,<https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023>(2024/3/12参照)