序章:寄り道から始まる話
😏 私
前回の記事で、ChatGPTは「社内文書やメールの下書き作成」「会議の議事録の要約」に活かせるとあった。
確かに、メールの下書きや議事録をChatGPTに任せれば、かなり事務の効率化が図れるはずだ。
しかし心配なのは――情報がどこかへ漏れ出すことだよ、ランディ君。
💬 ランディ君
はい。便利さの裏に潜むリスクは無視できません。ChatGPTはクラウド上のサービスですので、入力した内容がサーバーに送信される仕組みになっています。つまり、セキュリティ対策なしで利用すると情報漏洩の可能性はあります。
「すべての人のためにモデルを改善する」をオフにすべし
😏 私
おお、それは背筋が寒い。では、まず何をすればよい?
💬 ランディ君
第一に「設定」→「データ コントロール」→「すべての人のためにモデルを改善する」をオフにしてください。設定画面から変更できます。これをオフにすると、会話内容は今後のAI学習に使われません。つまり、自分の発言が次のバージョンのAIに混ざるリスクを減らせます。
😏 私
なるほど。だが「オフにしたから絶対安心」というわけではあるまい?
💬 ランディ君
おっしゃる通りです。システムの安全監査や不正利用対策のため、一時的に会話データが保持される可能性は残ります。したがって、セキュリティ上の鉄則は「機密情報を入力しない」ことです。
機密情報を入力しない鉄則
😏 私
つまり「極秘の商談資料を丸ごとコピペ」なんてのは自殺行為だな。
💬ランディ君
はい。具体的には以下のような情報は絶対に入力すべきではありません。
- 顧客名や住所などの個人情報
- 契約金額や支払条件などの商取引情報
- 新商品や技術に関する未公開情報</span>
😏 私
ほうほう。つまりChatGPTは「秘書」ではあっても「金庫」ではない、ということか。
実務に役立つ安全な使い方
💬 ランディ君
安全に活用するなら、次のような用途に絞ると良いです。
- メールの挨拶文や依頼文の下書き
- 議事録の要点を整理(人名は仮名やイニシャルで入力)
- 文章のトーンや敬語の調整
つまり「骨組みはAI」「仕上げは人間」という役割分担です。
😏 私
ふむ、つまりビールで言えば「ジョッキを冷やすのはAI、注ぐのは人間」みたいなもんだな。
実際に起こりうるリスク事例
💬 ランディ君
はい。実際に大企業でも問題になった事例があります。
- 事例1:社内の設計図を入力 → 外部に情報が流出したと誤解される騒動
- 事例2:取引先との契約条件を入力 → 社内規定違反で懲戒処分
- 事例3:メール本文に顧客名を入力 → 個人情報保護違反の恐れ
これらは「便利だから」と安易に入力した結果、後から大きなトラブルに発展したケースです。
😏 私
うーむ。ビールの飲み過ぎで怒られるより、はるかに深刻だな。
ChatGPT用語の豆知識
😏 私
ところで、入力することを「プロンプト」と呼ぶのはなぜだ?
💬 ランディ君
コンピュータ用語で「プロンプト」は、ユーザーに入力を促す表示を意味します。ChatGPTでは、その流れを引き継ぎ「入力文そのもの」をプロンプトと呼んでいます。
まとめ
- ChatGPTを使うなら「設定」→「データ コントロール」→「すべての人のためにモデルを改善する」をオフにする
- 機密情報は絶対に入力しない
- 利用は「下書き」「要点整理」に限定する
- リスク事例から学び、情報管理の意識を持つ
- AIは金庫ではなく、あくまで補助ツール
😏 私
結論は出たな。ChatGPTに任せるのはあくまで下書きまで。残りは自分で手を入れる。そして一日の終わりには、冷えたビールを自分で注ぐ。これこそ安心・安全な使い方だ。
コメント