コラム COLUMN

ChatGPTによる情報漏洩リスクと対策を解説!

自然な会話によって多様なコンテンツを生成してくれるChatGPTは便利な一方で、業務に利用するに当たってはさまざまなリスクを踏まえた上で利用する必要があります。

その中でも、企業の機密情報や個人情報などの重要な情報の漏洩リスクがあります。今回はChatGPTによる情報漏洩リスクの概要から事例、対策方法をご紹介します。

1. ChatGPTによる情報漏洩のリスクとは?

ChatGPTによる情報漏洩のリスクを解説します。

ChatGPTとは

ChatGPTとは、「Chat Generative Pre-trained Transformer(文章生成モデル)」のことで、米国企業OpenAIが開発したAIチャットサービスです。人工知能(AI)によってインターネット上にある大量のデータを学習しており、まるで人間と話しているかのような自然な会話が可能です。その回答の幅の広さや、文脈を理解する自然な会話、柔軟性の高い文章生成力が評価されており、既に多くの企業が業務に利用しています。

情報漏洩のリスク

一方で、ChatGPTを業務で利用すると情報漏洩のリスクがあります。

その大きな理由として、入力した内容がChatGPTの学習に利用されるため、社外の他ユーザーが利用するときにChatGPTがアウトプットしてしまう恐れがあるからです。

またChatGPTサービスそのものに対する不正アクセスやハッキングなどにより、入力した内容やアカウント情報が漏洩する恐れがあります。

またChatGPTのバグによって、チャット履歴が他ユーザーへ表示されるといった事態が起きたことがあるため、今後も起きないとは言い切れません。

2. ChatGPTで情報漏洩が生じた事例

ChatGPTで実際に企業において情報漏洩が生じた事例を3つご紹介します。

ChatGPTの業務利用による機密情報の漏洩

あるIT企業は、ChatGPTを業務に利用することを許可していましたが、社員が開発中のプログラムのソースコードを入力して調べものをしたり、社内会議の録音データの文字起こしに利用したりしたことから、情報漏洩扱いとなりました。

ChatGPTサービスはOpenAIによって運営されており、同社のサーバーに入力内容が保存されることになります。その時点で情報漏洩となり得ます。それと共に、ChatGPTの学習にも利用される恐れがあることもあり、さらに重大な情報漏洩のインシデントとして扱われました。その後、この企業はChatGPTの業務利用を禁止しました。

ChatGPTのバグによる他ユーザーのチャット履歴の表示

あるときChatGPTのバグが生じ、一部のユーザーのChatGPTの画面に、他ユーザーが入力したチャット履歴の一部が表示されるインシデントが起きました。
OpenAIはこのインシデント発生を受け、一時的にサービスを停止し、不具合を調整しました。

OpenAIによるアカウント流出事件

OpenAIのミスにより、有料版のユーザーアカウントの名前や住所、クレジットカード番号の流出が起きたことがあります。他のユーザーの管理画面に他ユーザーの個人情報が表示されたといわれています。

3. ChatGPTを悪用するサイバー攻撃の情報漏洩リスク

ChatGPTは、他にも悪意を持つ者によるサイバー攻撃によって、情報漏洩が起きるリスクもあります。例えば、次のような流れで情報が漏洩する恐れがあります。

ChatGPTのアカウント情報を盗むことによる情報漏洩

ChatGPTのアカウント情報を狙うサイバー攻撃では、アカウントを悪意を持って利用し、チャット履歴から機密情報や個人情報を盗み見る可能性があります。また、有料アカウントの住所やクレジットカード番号を狙うこともあり得ます。

実際に、闇取引によりChatGPTのアカウント情報の売買が行われているといわれています。

偽ChatGPTへの誘導により情報入力させる

詐欺サイトによるフィッシング被害が蔓延している中、メールやWebサイトのリンクから偽のChatGPTサイトに誘導し、情報入力を促して情報をだましとる手口が考えられます。

ChatGPTで情報を不正に得るマルウェアを作成

ChatGPTサービスにマルウェアを送り込み、チャット履歴などの情報を不正に得るサイバー攻撃が考えられます。

4. ChatGPTによる情報漏洩のリスクを対策する方法

企業がChatGPTを業務で利用する際には、情報漏洩リスクを徹底して対策することが重要です。対策する方法としては、次のことが考えられます。

利用ルールの設定

社内で統一された利用ルールを策定します。社内の機密情報や個人情報などの入力禁止とする情報範囲を定めたり、業務の利用範囲を定めたりして、外部に情報が出るリスクをなくしましょう。

アカウント・ログイン認証のセキュリティ強化

ChatGPTのアカウントの管理や、ログイン認証の際のネットワーク面のセキュリティ強化を社内で独自に行うことも重要です。

利用の権限設定・アクセス制限

社内の誰もが利用できるのではなく、利用できる部署や役職を指定するのも良いでしょう。利用ルールに従って責任を持って利用できる訓練された人員に限るのも一案です。

API連携を利用する

ChatGPTは外部サービスにAPIというアプリケーションと連携させる仕組みを使うこともできます。ChatGPTに入力した内容はAPIを介してChatGPTへ送信されるため、入力内容がChatGPTの学習データに使用されることがありません。その意味では情報漏洩リスクが少なくなります。

例えばリコーのAI活用型チャットボットサービス「RICOH Chatbot Service」上でChatGPTが利用可能なオプションサービス「RICOH Chatbot Service for 生成AI」は、入力内容が学習に利用されないため、情報漏洩のリスクを防ぐことができます。

5. まとめ

ChatGPTは業務利用に便利な一方で、情報漏洩リスクが高いといえます。今回ご紹介した内容を基本として、ぜひ対策を行い、有意義な活用につなげてください。

リコーの「RICOH Chatbot Service for 生成AI」は、業務利用に役立てていただくことが可能です。

RICOH Chatbot Service

AI活用型チャットボットサービスです。Excelで作ったQ&Aデータを読み込むだけですぐに始められます。業種別テンプレートを利用すればさらに便利です。AIを手軽に育てられ、誰でも簡単な操作で運用できるのが特徴です。

RICOH Chatbot Service for 生成AI

ChatGPTのご利用が可能なオプションサービスです。専用のアプリなどを別途インストールする必要がなく、チャットボットのユーザーインターフェースで自然な文章で応答可能です。通常のChatGPTとは異なり、入力した内容は学習に利用されることはありません。

また管理者は利用ログを確認できるため、社内利用ルールの範囲外の利用の監視も行えます。

ChatGPTのご利用を希望されている場合は、ぜひご検討ください。

関連コラム
無料デモ実施中!RICOHチャットボットサービス 月額1.8万円~ 詳細はこちら 1アカウント契約のみで利用可能 ChatGPTの業務活用 セキュリティ・運用の課題を解決 詳しくはこちら

人気記事ランキング

お問い合わせ