
オープンAIは7日、チャットGPTを使って大規模監視ツールの提案書成やSNS上で「過激派発言」を検出する宣伝支援を依頼したとみられる中国政府関連のアカウントを停止したと発表しました。報告書が示す実態と警告をまとめます。
オープンAIの報告内容と事例
米オープンAIは7日、同社の報告書で、中国政府と関係があるとみられる利用者がチャットGPTを使い、監視やモニタリングに用いる提案書を作成していたと明らかにしました。具体例として、ウイグル族など「高リスク」対象者の移動履歴や警察記録を分析するツールの提案書作成依頼がありました。報告書は、こうした利用が「抑圧をより効率的にする」方向にAIが使われる可能性を警告しています。
また別のケースでは、中国語話者の利用者がX(旧ツイッター)やフェイスブック上で政治や宗教に関する投稿を検知するツールの「宣伝資料」作成をチャットGPTに依頼しており、オープンAIはこれらのアカウントを停止しています。報告書はさらに、国家支援とみられるハッカーや犯罪組織、詐欺師らがチャットGPTを日常的に利用し、コーディングの精度向上やフィッシング文面の信憑性向上に活用している事例を複数示しています。ロシアや北朝鮮、中国とみられる勢力による利用も含まれており、オープンAIはこれを「権威主義的なAIの悪用」を示す重要な機会と位置づけています。
報告書は、国家レベルの勢力が新たな攻撃手法を発明しているのではなく、既存の手法をAIで洗練させている点を指摘します。セキュリティー専門家マイケル・フロスマン氏は、敵対勢力がAIを用いて既存手法の精度を高めていると述べています。報告はまた、米中がAI分野で覇権を競う文脈の下、こうした利用が技術的な飛躍ではなく、比較的平凡なデータ処理や文章校正の延長として行われている実態を示しています。オープンAIは該当アカウントの停止を通じて対応を進めています。
DXを進める組織は、技術導入の便益だけでなく悪用リスクを明確に検討し、内部ルールを整備する必要があります。ガバナンスと利用目的の透明化が信頼構築の要になります。技術の導入は速度だけでなく安全性を担保することが不可欠になるでしょう。
レポート/DXマガジン編集部
