Security NEWS TOPに戻る
バックナンバー TOPに戻る

生成AIの普及が進む中、その安全性やセキュリティリスクについての議論が活発になっています。2025年春時点でのAIをめぐる様々な事象をまとめた本連載第2回目となる今回は、生成AIをめぐる政府機関および世界各国の対応についてご紹介します。
DeepSeekに対する各国の反応
DeepSeekは個人情報の保護を定める自国の法律に適合しないという理由から、韓国*1やイタリア*2では監督官庁が禁止措置などを講じています。また、日本では2025年2月3日、個人情報保護委員会から「DeepSeekに関する情報提供」という形で以下の点について周知がされました。
- 同社の生成AIサービスについては、日本国内でサービス提供体制が構築されている他のサービスとは異なり、留意すべき点がありますが、同社が公表するプライバシーポリシーは中国語と英語表記のもののみとなっています。このため、同社が公表するプライバシーポリシーの記載内容に関して、以下のとおり、情報提供を行います。
- 当該サービスの利用に伴いDeepSeek社が取得した個人情報を含むデータは、中華人民共和国に所在するサーバに保存されること
- 当該データについては、中華人民共和国の法令が適用されること
参考情報:
・個人情報保護委員会事務局「DeepSeek に関する情報提供」(令和7年2月3日)
DeepSeek R-1は公開からわずか1カ月ほどでそのモデルの公開方法や安価な料金によって注目を浴びました。しかし一方で、セキュリティ上の問題や個人情報の保護の観点から多くの問題を巻き起こしています。
生成AI全般に関する政府機関からの注意喚起
国内では前述した個人情報保護委員会からの周知に引き続き、デジタル庁から生成AIの業務利用に関して注意喚起が行われました。この注意喚起はDeepSeekに関する周知をきっかけに、生成AI全般の利用について政府機関が再度注意喚起を行ったものです。
- DeepSeekに関する個人情報保護委員会からの情報提供
- 生成AIの業務利用に関する申し合わせの再周知
- 他の生成AIサービスも含めて生成AIサービスは約款型サービスであることから、原則として用機密情報を取り扱わない
- 機密情報を取り扱わない場合でもリスクを考慮したうえで必要な手続きを行い、申請・許可を要する
(上記は2023年(令和5年)9月15日デジタル社会推進会議幹事会申合せ「ChatGPT等の生成AIの業務利用に関する申合せ(第2版)」で申し合わせ済の事項) - 国外サーバへのデータの転送は利用可否判断の差異の考慮すべきリスク
- 生成AIサービスについてもIT調達申し合わせの対象
参考情報:
・デジタル社会推進会議幹事会事務局「DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡)」(令和7年2月6日)
改めて見直すとわかる通り、政府関係機関としても、DeepSeekに限らず生成AIサービス全般に対して業務上で利用することに制限をかけています。また、IT調達申し合わせの対象となっている点にも注意が必要です。
一方、個人情報保護委員会からは2023年6月に「生成AIサービスの利用に関する注意喚起等」で一部事業者に対する要配慮個人情報の取得及び利用目的の通知などについての注意喚起が行われています。全般の注意喚起では個人情報取扱事業者、行政機関、一般利用者それぞれに向けた注意点が記載されています。一般の利用者向けの留意点としては以下の点が挙げられています。
- 入力された情報が機械学習の利用や他の情報との統計的な結びつきにより正確/不正確を問わず出力されるリスクがある
- 応答結果に不正確な内容が含まれることがある
- 推奨:利用規約やプライバシーポリシーを十分に確認し、入力情報と照らし合わせて利用について適切に判断すること
同時に発表された一部事業者への注意喚起では以下の点について注意喚起を行ったことがわかっています。
- 個人情報、特に要配慮個人情報の収集を含まれないような取り組みの実施
- 学習データセットへの加工前に要配慮個人情報を削除するか、個人識別ができないような措置の実施
- 特定のサイトまたは第三者から要配慮個人情報を収集しないよう要請・指示が本人または個人情報保護委員会からあった場合、正当な理由がない限りは従うこと
- 機械学習に利用されないことを選択してプロンプトに入力したよう配慮個人情報について正当な理由がない限り取り扱わないこと
- 利用者及び利用者以外のものを本人とする個人情報の利用目的について、日本語を用いて双方に対して通知または公表すること
2年前に注意喚起が行われて以降、注意喚起が行われた事業者のサービスを含む一部のサービスでは学習データへの再利用のオプトアウトメニューが実装されましたが、一部の事業者のみが実装するにとどまっているのが現状です。
生成AIサービス利用に関する契約チェックリスト
生成AIサービスの利用全般については2025年2月18日に経済産業省から「生成AIサービスの利用・開発に関する契約チェックリスト」が公開されています。チェックリストはインプット・アウトプット、またそれぞれの処理成果に対して設定されています。セキュリティに関してはチェックリスト内に、以下の観点でのチェック項目が設けられています。
- 対象システム(AIサービス)のセキュリティ水準
- 監査条項等
- ログの保存
- 規約改定に関する留意点

出典:経済産業省「AIの利用・開発に関する契約チェックリスト」p.11より抜粋
全体としてデータが不適切に利用されないよう、利用者が不利益を被らないよう、チェックが行えるようなリストとなっています。生成AIサービスを利用されている場合、利用する予定がある場合には一度チェックしてみることをおすすめします。
AIの安全性を確保するための法整備
現在、各国でAIの安全性を確保するための法整備が進められています。
欧州データ保護委員会(EDBP) Opinion
EUでは個人情報保護についてGDPRがあり、その監督機関である欧州データ保護委員会(EDBP)が 2024年12月17日に「Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models」を公開しています。EDBPのOpinionには法的拘束力はありませんが、EUにおけるAIへの個人情報保護法制の今後を推測するものといえます*3。同資料では以下の3点について考察が行われています。概要を記載しますが、詳細は本文や引用元をご覧ください。
1.AIモデルを匿名と見なすことができる場合と方法
- AIモデルが匿名であるかどうかは、DPAがケースバイケースで評価すべきだとしている
- 匿名化の結果、再度個人データを抽出できる可能性が非常に低い必要があるとされている
2.AIモデルを開発または使用するための法的根拠として正当な利益を使用できるかどうか、およびどのように使用できるか
- 従来から GDPR を回避するために正当な利益のみを法的根拠としてきた事業者に対して、正当な利益と主張しているものが本当に正当かどうかを確認するよう求められているもの
- EDPBは[三段階のテスト]を用いて正当な利益の仕様であるかどうかを評価するよう求めている
STEP1. 管理者または第三者に正当な利益はあるか
STEP2. 正当な利益のために処理が本当に必要か
STEP3. 個人の利益や基本的な権利と自由は、正当な利益によって覆されうるのか
参考情報:https://www.edpb.europa.eu/system/files/2024-10/edpb_summary_202401_legitimateinterest_en.pdf
3.違法に処理された個人データを使用してAIモデルが開発された場合に何が起こるか
- AIモデルが違法に処理された個人データを使用して開発された場合、モデルが適切に匿名化されていない限り、そのデプロイの合法性に影響を与える可能性があるとされている
EU AI法
また、EUではAI全般をリスクベースで管理するためのAI法(『EU AI Act: first regulation on artificial intelligence』)が2024年に施行されました。
EUではリスクレベルを以下のように定義し、それぞれに要件を設けています。
許容できないリスク
- 人や特定の脆弱なグループの認知行動操作(例えば、子供の危険な行動を助長する音声作動玩具)
- ソーシャルスコアリング AI(行動、社会経済的地位、または個人の特性に基づいて人々を分類します)
- 人々の生体認証と分類
- 公共スペースでの顔認識などのリアルタイムおよびリモート生体認証システム
法執行目的では一部例外が認められる場合がある。
ハイリスク
以下が該当し、規制の対象となる。
(1). EUの製品安全法に該当する製品に使用されているAIシステム(玩具、航空、自動車、医療機器、リフトなど)
(2). 特定の分野に分類されるAIシステム
- 重要インフラの管理・運用
- 教育と職業訓練
- 雇用、労働者管理
- 自営業へのアクセス
- 必要不可欠な民間サービス
- 公共サービス
- 福利厚生へのアクセスと享受
- 法執行機関
- 移民、庇護、国境管理管理
- 法律の解釈と適用に関する支援
すべての高リスクAIシステムは、市場に投入される前、およびそのライフサイクル全体を通じて評価される。人々は、AI システムに関する苦情を指定された国家当局に申し立てる権利がある。
透明性リスク
- General-purpose AI(GPAI)として定義される生成AIサービス全般が該当
- ミニマルリスクやハイリスクでも該当する場合がある
- 許容できないリスクやハイリスクに分類されない場合でも、透明性要件とEUの著作権法に準拠する必要がある
・コンテンツがAIによって生成されたことを開示する
・不正なコンテンツが生成されないようにモデルを設計する
・トレーニングに使用した著作権で保護されたデータの概要の公開 - システミックリスクをもたらす可能性のある影響の大きい汎用AIモデルは、徹底的な評価を受け、重大なインシデントが発生した場合は欧州委員会に報告する必要がある。
- AIの助けを借りて生成または変更されたコンテンツ(画像、オーディオ、ビデオファイル(ディープフェイクなど))は、ユーザーが認識できる形で AI 生成であることをラベル付けする必要がある。
ミニマルリスク
スパムフィルターなどのリスクが最小限にとどまるAIサービスが該当
なお、AI法はGDPR同様に日本の事業者がAIサービスをEU圏で提供する場合にも適用される*4とのことです。
韓 AI基本法
韓国ではAI基本法が2024年末に国会で議決*5されています。主な内容は以下の通りです。
- AIの発展と信頼基盤造成のための推進体系の構築:競争力強化のためのAI基本計画の策定、AI安全研究所の運営など
- AI産業の育成支援:AI研究開発・標準化・学習用データ施策の策定・AIの導入および活用に対する政府支援、AI集積団地の指定、専門人材の確保、中小企業のための特別支援など
- 影響度の高いAI(人の生命・安全・基本的な権利に重大な影響を及ぼす可能性があるAI)・生成型AIに対する安全・信頼基盤の構築:透明性・安全性確保義務の規定、事業者の責務規定、AIの安全性・信頼性の検証・認証に対する政府支援、影響評価に対する政府支援など
英国AISI
英国では2025年2月14日に発表されたAnthropicとの協力関係を元にAISI(AI Security Insititute)を中心に国家安全保障やサイバー攻撃、詐欺や児童性的虐待などの国民に被害を及ぼす犯罪や治安問題に関連するリスク保護を強化し、経済の成長を支援する目的でのAI活用の推進を進めるとしています*6。
―第3回「生成AIの未来と安全な活用法 -私たちはAIをどう使うべきか?-」へ続く―
連載第2回では、生成AIに対する政府機関からの注意喚起や取り組みについてご紹介しました。次回、第3回では生成AIの安全な利用・活用方法と今後の展望についてみていきます。
Security NEWS TOPに戻る
バックナンバー TOPに戻る
【連載一覧】
―第1回「生成AIとは? -生成AIの基礎知識と最新動向-」―
―第3回「生成AIの未来と安全な活用法 -私たちはAIをどう使うべきか?-」―