多くの企業で生成AIのビジネス利用が進んでいる。社内文書をLLM(大規模言語モデル)に与えて回答を生成させるRAG(Retrieved-Augmented-Generation)の実装が一般化し、2025年に入ってからはOpen AI社がdeep researchをリリースするなど、AIエージェントの導入検討も始まっている。最先端のAIを気軽に使えるようになった一方、リスクも顕在化してきた。例えば社内の機密文書を生成AIにアップロードしてしまう、生成AIで構築したチャットボットが法律違反を推奨してしまうなどのインシデントが発生している。
AIの利活用が本格化する中、AI規制に関する議論が世界各国で盛んになっている。世界に先駆けてAI規制に乗り出したEUでは、2024年8月1日に欧州(EU)AI規制法を施行した。EU域内に所在していない企業であっても、EU域内でAIシステムを提供する場合は、当法案に準拠する必要があり、違反した場合には最大3500万ユーロまたは全世界売上高の7%の高い方を上限とした非常に高額な罰金が設定されている。
G7は生成AIの開発企業などにAIのリスクなどを報告させる枠組みを2025年2月から運用開始予定である。AIのぜい弱性などのリスク管理やセキュリティ対策、安全性の向上やリスクの軽減に向けた研究や投資の内容など、7つの項目について報告を求め、OECDのWebサイトに報告内容や回答企業について公表する。
その他、2024年12月に韓国でもAI基本法が制定されている。
日本においては、2024年4月に経済産業省と総務省から「AI事業者ガイドライン」が公表され、2025年3月に第1.1版が公表されるなど継続的に更新されている。2025年3月時点では、内閣府のAI戦略会議・AI制度研究会の取りまとめを基に、「AI関連技術の研究開発・活用推進法案」の法整備化が検討され、閣議決定の後に通常国会へ提出されている。政府内に司令塔機関を設置し、企業は国による調査への協力・情報提供義務が明文化・悪質な事業者名の公表などが盛り込まれる方向で検討されている。
生成AIが広く一般に普及したことにより規制当局だけでなく、市民からの監視の目も強まっている。2024年10月には声優有志が「NOMORE無断生成AI」キャンペーンを実施し、無断で声優の声を学習し生成されたAI生成物についての問題提起を行っている。
このように、各国当局や社会からAIの適切な使い方に対する関心は高まっており、AI開発企業だけでなくAIを利用する企業も顕在化するリスクへの対応が迫られていることから、AIガバナンスの実現は喫緊の課題となっている。