生成型AIの1つ「ChatGPT」が世界を席巻し始めて数カ月が経過した。その回答のスピード、網羅性、文章力から大きな話題となり、生成型AIをどのようにビジネスに活かすことができるかを検討し始める企業や組織が増えている。人材不足を補完するだけでなく、雇用環境や人材に求められるスキルを大きく変貌させるポテンシャルが高い一方で、すでにさまざまな問題が顕在化している。
サムスン電子のエンジニアがソースコードをChatGPTにアップロードしたことが発覚するなど、特にセキュリティやプライバシーの面で早くも課題が浮き彫りになっている。ChatGPTへの機密情報のアップロードを禁止する動きが世界各地の企業で始まる中、社外への共有が許されていない機密情報がChatGPTにアップロードされてしまったというケースは国内でも漏れ聞こえてくる。
繰り返される新しいツールを経由した機密情報流出
企業や組織におけるIT技術の普及を振り返ると、メール技術が普及し始めたことで、個人間はもちろんビジネスにおけるコミュニケーションがより円滑に行われるようになった一方で、誤送信によって本来手にするべきではない人物や組織に機密情報が送られてしまうケースが頻発するようになった。日本情報経済社会推進協会(JIPDEC)のプライバシーマーク推進センターが昨年発表した最新データによると「個人情報の漏えい事故の原因」は「誤送付」が全体の63.6%で最も多く、また誤送付の内訳を見ても「メール誤送信」が37.0%と最も多くなっている。
メールへの添付が難しい大容量なファイルを社外と共有したい、データの受け渡しを効率的に行いたいといったビジネスニーズから、USBメモリなどの携帯型リムーバブルメディアの利用がビジネスシーンで始まると、機密情報が保存されたリムーバブルメディアの紛失や盗難といったインシデントも相次いで発生するようになった。昨年も、臨時特別給付に関する個人情報が保存されたUSBメモリが地方自治体の業務委託先で紛失する事故があったのも記憶に新しい。
同じようなニーズのもとに、Dropboxなどのクラウドベースのファイル共有サービスが普及し始めた際にも、その利便性の高さから外部への移動が許されていない機密情報をクラウドサービスに保存するケースが続発した。オフィス外で業務を行うために本来外部への持ち出しが許可されていない機密情報をファイル共有サービスに保存するケースもあれば、転職を有利に進めるためや会社への不満からの腹いせ目的で私的にデータをファイル共有サービスを通じて流出させるといったケースもある。
メールの誤送信であれば、誤ってデータが共有される対象はある程度限定される上、誤って受け取った相手に削除を求めることは可能だ。ファイル共有サービスの場合にも、リンクを受け取った相手に削除を促したり、ファイル自体をダウンロードしないように求めたりすることができる。また、ファイルを閲覧するべきではない人物がアクセスできる状態になっていれば、設定を変更したりファイル自体を削除したりすることでダメージコントロールをすることができる。
ChatGPTの場合、利用者が意図して機密情報をアップロードしている以上「誤送信」という表現は正しくないが、機密情報漏洩のダメージを抑制するための新しい動きがプラットフォーム側から発表され始めた。2023年3月1日には、API経由で入手したユーザーデータはオプトイン申請をした場合に限定して機能向上に活用されることが発表された。また、翌月となる4月25日には、チャット履歴を無効にする機能が新たに追加されたことが発表され、この機能を活用することで、ChatGPTとのやりとりが自動的に記録されることはなくなった。これら2つの発表により、利用者の設定次第でモデルのトレーニングや改良に入力したデータが利用されることはなくなった。
データプライバシーなどに関する社会全体の懸念を踏まえて、これらの機能改良が実施された点は歓迎すべきではある。しかし、OpenAIも明らかにしているように、機能改良以前にAPI経由で入力されたユーザーデータや、チャット履歴を無効にする機能を使わずにアップロードしたユーザーデータは、ChatGPTの改良に活用され続ける可能性がある。トレーニングや改良のためにユーザーデータが利用される前提で生成型AIに機密情報がアップロードされれば、利用者側ではその後のダメージコントロールが効かなくなる危険性がある点が、従来のメールやリムーバブルメディア、ファイル共有ツールを通じた誤送信などと根本的に異なる問題点だ。
繰り返される「流行の悪用」
ChatGPTの大流行が露呈させた問題がもう1つある。流行は必ず悪用される点だ。新型コロナウイルス感染症(COVID-19)が社会問題となった際には、多くのインターネット利用者が、情報や予防手段を求めてインターネット検索を行い続けた。
パロアルトネットワークスの脅威に関する専門組織であるUnit 42の調査では、新型コロナが問題になり始めた2020年2月から3月にかけて、新型コロナ関連のドメイン登録数が1日平均で656%増加したことが確認できた。ドメインとは、Webサイトやメールアドレスに必要な「〇〇〇.com」や「XXX.co.jp」といった「インターネット上の住所」と呼ばれているものである。中でも、マルウェアやフィッシングに関連する悪意のあるドメインは569%、詐欺や不正なコインマイニングなどのハイリスクなドメインも788%増加した。正当な理由で情報を求める利用者のニーズを逆手に取って、クレジットカード情報などの情報を騙し取ったり、端末をマルウェアに感染させたりする手口だ。
ChatGPTも例外ではない。興味関心から実際にChatGPTを試しに利用してみたり、情報を求めてインターネット検索を行ったりする利用者が溢れていた。同じくUnit 42の調査では、2022年11月から2023年4月上旬にかけて、ChatGPTに関連するドメインの月間登録件数が910%増加していることが確認できている。同期間には、流行に便乗した転売目的と考えられるいわゆるスクワットドメインが1万7818%増加したことを確認している上、マルウェアに感染させるOpenAIの偽サイトや、サービス利用が有料と偽ってクレジットカード情報を入力させるサイトなど、ChatGPTに関連する悪意のあるURLを1日最大で118件検出している。
改めて考えたい「基本中のキホン」
話題性の高いもの、特にChatGPTのようにこれまで人類が経験したことのない体験を得られるテクノロジーであれば、より詳しい情報を求めたりすぐにでも試したりしてみたくなるのは人間として当然の感情だ。生成型AIのような利便性の高い技術は、我々人類の生活や企業活動をより良くする可能性があり、メリットのあるものは積極的に活用する以外に選択肢はないだろう。
しかし、社会的に関心が高く注目や話題を集めるものは、必ず犯罪者によって悪用される。我々人間の心理的な隙やミスにつけ込む手口はサイバー犯罪の中でも最も効果的なものの1つだ。個人利用者がクレジットカード情報を騙し取られたり、企業や組織が機密情報を窃取されたり業務停止に追い込まれるといった深刻な被害を受けていることから、被害を未然に防ぐためにも改めて最新の犯罪の手口を知ってもらいたい。
また新しい技術をよく理解せずに安易に利用しようとすれば、必ずリスクや危険が存在する。社内独自の知的財産などの機密情報が生成型AIのトレーニングや改良に利用されれば、同様のテーマに関心を持つ利用者への回答として使われる可能性が出てくる。機密情報が生成型AIによって世の中で「標準化」されてしまえば、組織の企業競争力は大きく損なわれる危険性がある。これにより販売業績やマーケットシェアなどビジネスの面でさまざまな影響を受ける可能性もゼロではない。
生成型AIの利用にあたってのポイントは、データの安全性の責任は利用者にあるということだ。すでに多くの企業で活用されているクラウドサービスと考え方は本質的には変わらないのだ。生成型AIが利用者のデータをどうトレーニングや改良に使うかやサービス基盤の安全性は、各サービスによって異なってくることも理解するべきだろう。どんなに興味深いテクノロジーでも「メリットとデメリット」「価値とリスク」を理解した上で利用の是非、用途、範囲を判断することだ。企業における機密情報の価値や重みを従業員1人1人が改めて認識する必要性はいうまでもない。