ChatGPTで情報漏洩を防ぐには?リスクと対策方法を詳しく解説
最終更新日:2024年07月10日
ChatGPTは、業務において強力なパートナーになるといえるツールです。一方で、社会的に関心が集まっているだけに、取り扱いを間違えると企業に重大な損害を与える可能性があります。ChatGPTを業務に導入することによって、情報漏洩が発生するリスクはゼロではなく、過去にも情報漏洩事故が起きています。ChatGPTのバグによる情報漏洩も発生しているため、ChatGPTを業務に取り入れる場合は、企業や個人単位でのセキュリティ対策が必要でしょう。
今回は、ChatGPTの情報漏洩リスクや、過去に起きた情報漏洩事故の事例、情報漏洩を防ぐ方法について解説します。
ChatGPTの情報漏洩のリスクとは
ChatGPTとは、文章で指示するとその意味や目的を理解し、適切な答えを返してくれるチャット型の生成AIサービスのことです。簡単な指示への返答だけでなく、プログラミングコードの作成や画像生成などの専門的な分野にも即時に回答してくれるのが特徴です。ユーザーが入力したテキストデータをもとに学習するため「成長し続けるAIツール」といえるでしょう。
しかし、このプロセスにより、ユーザーが機密情報や個人情報をChatGPTに入力してしまった場合、ほかのユーザーの出力に機密情報が反映されるリスクがあります。また、ChatGPTの利用にはアカウント登録が必要です。過去にもアカウント情報の流出によって情報が漏洩する事例があったため、業務で使用する際には十分に注意してください。
ChatGPTによる情報漏洩の事例
ChatGPTでは、以下の情報漏洩の事例がOpenAI社により公表されています。いずれもChatGPTのバグによるもので、ユーザー起因ではありません。しかし、情報漏洩事故により「ChatGPTに打ち込んだプロンプトは漏洩するかもしれない」という前提で利用することが大切です。
アカウント情報の漏洩
OpenAI社は、2023年3月にChatGPTのバグにより、ユーザー名やメールアドレス、クレジットカード情報が約10時間にわたって公開された可能性があると発表しました。なお、この漏洩事故で、有料会員であるChatGPT Plusの契約者のうち1.2%の支払い関連情報が流出しています。
チャット履歴の漏洩
同じく2023年3月にはChatGPTのバグにより、一部のユーザーに、無関係なユーザーのチャット履歴が表示される事態が発生しました。このバグは数時間で修正されましたが、重要なデータが外部に漏洩する可能性が示されました。
ChatGPTで危惧されるセキュリティリスク
ChatGPTの利用にはさまざまなセキュリティリスクが伴います。入力した情報の内容や重要度によっては、重大事故にもつながりかねません。
ここでは、ChatGPTの利用に伴う主なセキュリティリスクについて、詳しく解説します。
ChatGPTのバグによる情報漏洩
前述のとおり、ChatGPTのバグにより、一部のユーザーにほかのユーザーのチャット履歴が表示される事例がありました。ChatGPTは過去のチャット履歴を保存しているため、企業の機密情報や個人情報を入力していた場合は、外部にやりとりが流出してしまうおそれがあります。
学習データが反映されることによる情報漏洩
ChatGPTはユーザーの入力データを学習します。機密情報や個人情報を入力すると、ほかのユーザーにその情報が反映されるリスクがあります。社外秘の情報を意図せずにChatGPTに入力してしまうケースもありえるため、学習されても問題がない情報のみを入力することを念頭におきましょう。
アカウント情報流出による漏洩
アカウント情報流出による情報漏洩もChatGPTにおける重大なリスクのひとつです。アカウントが不正アクセスされた場合、企業の機密情報や個人情報が悪意のある第三者に利用される可能性があります。過去にOpenAI社によるアカウント情報の流出事故もあったため、クレジットカード情報の登録や個人情報の登録は、企業でも個人でも慎重になるべきでしょう。
ChatGPTのセキュリティを強化する方法
ここまでで解説したとおり、ChatGPTを利用する際には「AIに入力したものは流出のリスクがある」という前提で、ユーザーがセキュリティ対策を強化するしかありません。
ここでは、具体的なセキュリティ対策の方法について解説します。
社内ガイドラインを策定する
企業でChatGPTを利用する場合は、事業規模を問わず、ルールを明確にして周知することが大切です。社内ガイドライン策定にあたっては、情報セキュリティ担当者主導で社内規定の維持と改版をする必要があります。専任の情報セキュリティ担当者がいない場合は、独立行政法人情報処理推進機構が発行している「セキュリティ関係者のためのAIハンドブック」を関係者全員で理解することもひとつの方法です。
また、社内業務において従業員が個人でChatGPTを利用してしまうケースが発生するおそれもあります。利用設定やアクセス制限を設けて、セキュリティリテラシーがある人のみ利用できるようにすることも有効です。
ChatGPTに個人情報や機密情報を入力しない
急速に発展するAI技術ですが、情報セキュリティの観点では未整備であるといわざるを得ません。そのため、個人情報や機密情報を入力しないことが、情報漏洩の防止策になります。ChatGPTに、入力を記録・学習させない方法も後述しますが、そもそも入力しないことでリスクを回避できます。
しかし、何が機密情報で個人情報なのかを判別できるかにも、個人差があることも事実です。情報セキュリティ担当者による社内研修や、社内ガイドラインの策定によってリテラシーの底上げが必要だといえます。
APIを利用する
OpenAI社が有料で公開しているAPIを使用するのもひとつの方法です。ChatGPTのAPIとはAIを使ってさまざまなアプリやサービスを作るためのツールです。
API経由でChatGPTを利用することで、入力した情報の学習を防ぐことができます。有料にはなりますが、ChatGPTのAPIを利用することで情報漏洩のリスクを減らすことができるでしょう。
ChatGPT Enterpriseを利用する
ChatGPT Enterpriseは企業向けのプランです。ユーザーが入力した情報をAIの学習に活用されない設定になっているため、データの安全性が担保されています。ChatGPT Enterpriseにはデータ分析機能やカスタマイズ機能などもあるため、企業で本格的にChatGPTを利用したい場合は、導入を検討するといいでしょう。
ChatGPT Enterpriseの詳細については下記をご覧ください。
ChatGPT Enterpriseとは?従来のChatGPTとの違いを解説
アカウントのセキュリティ対策を行う
ChatGPTを利用する際に、アカウント情報やクレジットカード情報など個人情報の登録が必要です。前述のとおり、過去にアカウント情報が流出した事故が発生しています。そのため、アカウントのセキュリティ対策を万全にしましょう。
<アカウントのセキュリティ対策例>
パスワードを複雑にし、ほかのサイトのものを流用しない
定期的にパスワードを変更する
二段階認証を有効にする
<小見出し>
ChatGPTに学習させない設定する
OpenAI社にオプトアウト申請を行うことで、ChatGPTに入力した内容を学習されないように設定することが可能です。
ChatGPTは、ユーザーが入力した情報を学習し、コンテンツを生成しています。誤って個人情報や機密情報を入力してしまった場合、情報漏洩が起きるリスクがあるのです。そのため、入力した内容を学習させないために、オプトアウト申請を行うことで、個人情報や企業の機密情報を守ることができます。
オプトアウト設定の詳細については下記をご覧ください。
ChatGPTのオプトアウト設定とは?データ学習させない方法を解説
なお、2024年4月30日のアップデートでChatGPTの無料版と有料版であるChatGPT Plusのユーザーに「データコントロール」機能が追加されました。
ChatGPTに入力した内容が学習されないようにする設定の方法は以下の手順です。
<データコントロール機能の設定方法>
(1)設定画面を開く
(2)データコントロールを選択
(3)「すべての人のためにモデルを改善する」を「オフ」にする
しかし、この設定を行っても、ChatGPTの悪用の監視のためにチャット内容が30日間保存されるため、注意が必要です。
業務にChatGPTを取り入れたい方は「ナイルの生成AIコンサルティング」に相談を
本記事では、ChatGPTの情報漏洩のリスクと情報漏洩を防止する対策を解説しました。これだけの情報漏洩リスクが潜在的にあるChatGPTを利用することに、抵抗がある方もいるのではないでしょうか。しかし、ChatGPTを活用することで、業務改善やコスト削減が可能になることも事実です。
ナイル株式会社が提供する「生成AIコンサルティング」では、ChatGPTを始めとする生成AIの導入セミナーを始め、ChatGPTを業務でどのように使うかの洗い出しや、それによる売上向上やコスト削減効果の可視化についてもご相談いただけます。また、生成AIの知見のあるエンジニアによるマイクロアプリケーションの開発も相談でき、生成AIを使った業務効率化が図れるでしょう。
業務でChatGPTを活用する際に発生するかもしれない情報漏洩のリスクについても、生成AIに詳しいコンサルタントが解説可能です。まずはお気軽に無料相談にお申し込みください。