
生成AIの“それらしい嘘”を業務で経験した人は55.7%に上りました。時短目的が裏目に出て72.8%が確認で余計に時間を使う現状を、調査データに基づき解説します。
調査が示す「AIの嘘」と業務への影響
AIスキルアカデミーの調査(業務で生成AIを使う203名対象)では、AIが事実と異なる情報を出した経験が55.7%にのぼり、過半数が「AIの嘘」を意識していることが明らかになりました。一方で「ない・わからない」と答えた44.3%は、無自覚に誤情報を業務で使っている可能性が指摘されます。特に「情報収集」の場面での誤情報が目立ち、嘘が発生した割合は55.2%で最多でした。調査の自由回答には、存在しない統計データの提示、実在しない法律の創作、未刊行の書籍の捏造など、業務に直結する具体的事例が複数寄せられています。
多くの人がAI導入で「時短」を期待しますが、実際には72.8%がAIの誤を補正するために余計な時間を使っていると答えています。誤情報を鵜呑みにする主な理由は「とにかく時間を短縮したいから(46.8%)」と「専門外だったため正しいと信じた(45.8%)」が挙がっており、時短志向と専門外依存の心理が誤判断を招いています。では、ミスを避けるためにできることは何か。調査は実務的な対策も示しています。まず最も多用されるのは「重要キーワードを従来通り検索エンジンで裏取りする」(67.5%)ことで、従来の検索スキルが依然重要であることが示唆されました。次いで「AIに出典やソースを明示させる」(55.2%)という新しい確認方法が挙がり、AIに“根拠提示”を求める運用が浸透しつつあります。
最後に、AIを業務で“使いこなす人”の共通点として、調査は「プロンプトスキル」の重要性(72.4%)と「批判的思考力」(70.4%)を挙げています。AIは「正しい答え」を確約するツールではなく、「それらしい答え」を生成する存在です。したがって業務の生産性を維持するには、AIを的確に操作する技術と、その出力を批判的に検証する力の両輪が不可欠になります。
AIは便利な補助ツールですが、出力をそのまま使う危険性は依然高いです。DX推進では「確認プロセスの設計」が最優先の課題になります。
詳しくは「株式会社AIスキル」の公式ページまで。
レポート/DXマガジン編集部
