AIのセキュリティ懸念と対策をわかりやすく解説
ChatGPTなどに入力した企業情報や個人情報がAIモデルの学習データとして利用され、他のユーザーへの回答時に情報が漏洩するのではないかという懸念があります。
ChatGPTでは、設定画面からデータがモデル改善(学習)に使われないようにオフにできます。これは無料プランでも利用可能です。
(図はイメージです。実際の操作はChatGPT設定画面で行います)
有料プランやAPI経由での利用の場合、多くはデフォルトでオフになっているか、同様に設定可能です。
学習に使われなくても、入力データはOpenAIのような海外企業のサーバーに送信・保管されます。これにより、データが悪用されたり、有事の際にアクセスできなくなったりするのではないかという懸念があります。
Gmail等と同様、多くのクラウドサービスはデータが提供企業サーバーに保存されます。AIだけ特別視するのは合理的でない場合も。
プライバシーポリシーでデータ取扱いを規定。データは30日間保存後消去、保存中は暗号化等の対策を実施。
機微情報はマスキング(匿名化)。本当に困るデータは入力しない。アカウント管理(2段階認証等)を徹底。
ほとんどの企業の情報は、Appleの新製品情報や国の最高機密レベルほどではないため、過度に心配する必要はないと専門家は指摘しています。重要なのはメリットとリスクを天秤にかけることです。
適切な対策を講じることで、リスクを管理しつつメリットを享受できます。
外部サービスへのデータ送信を避けたい、あるいは極めて高度なセキュリティ環境が必要な企業向けの選択肢です。
オープンソースのAIモデルを自社サーバーやPCに導入し、インターネットに接続せずに利用する方法です。データが外部に出ません。
例:ネットに接続しないPCで業務を行う銀行など。
この情報は、株式会社の社長(動画解説者)によるものです。同社は以下のAI関連サービスを提供しています。