生成AI導入のセキュリティ図解

AIのセキュリティ懸念と対策をわかりやすく解説

懸念点1: 入力データがAIの学習に使われる?

概要

ChatGPTなどに入力した企業情報や個人情報がAIモデルの学習データとして利用され、他のユーザーへの回答時に情報が漏洩するのではないかという懸念があります。

図解:対策

⚙️

対策:設定でOFF可能!

ChatGPTでは、設定画面からデータがモデル改善(学習)に使われないようにオフにできます。これは無料プランでも利用可能です。

学習利用:
OFF

(図はイメージです。実際の操作はChatGPT設定画面で行います)

有料プランやAPI経由での利用の場合、多くはデフォルトでオフになっているか、同様に設定可能です。

懸念点2: 入力データがAI提供企業のサーバーに保管されるリスクは?

概要

学習に使われなくても、入力データはOpenAIのような海外企業のサーバーに送信・保管されます。これにより、データが悪用されたり、有事の際にアクセスできなくなったりするのではないかという懸念があります。

図解:対策のポイント

☁️

クラウドサービスの現状

Gmail等と同様、多くのクラウドサービスはデータが提供企業サーバーに保存されます。AIだけ特別視するのは合理的でない場合も。

🛡️

OpenAIの対策

プライバシーポリシーでデータ取扱いを規定。データは30日間保存後消去、保存中は暗号化等の対策を実施。

👤

ユーザー側の対策

機微情報はマスキング(匿名化)。本当に困るデータは入力しない。アカウント管理(2段階認証等)を徹底。

企業情報とAI利用のバランス

概要

ほとんどの企業の情報は、Appleの新製品情報や国の最高機密レベルほどではないため、過度に心配する必要はないと専門家は指摘しています。重要なのはメリットとリスクを天秤にかけることです。

図解:メリットとリスクの天秤

⚖️

AI活用とセキュリティ

AI活用のメリット
効率化、新価値創出
セキュリティリスク
情報漏洩の可能性

適切な対策を講じることで、リスクを管理しつつメリットを享受できます。

  • 得られるメリットを具体的に評価する。
  • 許容できるリスクの範囲を判断し、対策を講じる。
  • セキュリティ対策を理解し、適切に設定・運用すれば多くの場合安全に利用可能。
より高度なセキュリティを求める場合

概要

外部サービスへのデータ送信を避けたい、あるいは極めて高度なセキュリティ環境が必要な企業向けの選択肢です。

図解:ローカルAI環境

💻🔒

ローカル環境でのAIモデル利用

オープンソースのAIモデルを自社サーバーやPCに導入し、インターネットに接続せずに利用する方法です。データが外部に出ません。

例:ネットに接続しないPCで業務を行う銀行など。

動画のスピーカーと提供サービス

この情報は、株式会社の社長(動画解説者)によるものです。同社は以下のAI関連サービスを提供しています。

  • 企業向けのAI研修の提供
  • 企業でも安全に使えるChatGPT環境の提供
  • チャットボットや音声AI周りの開発