一項歷時六個月、橫跨金融、法律及管理顧問業的研究,為企業界帶來一個令人不安的發現:人工智慧正在悄然削弱知識工作者的批判性思維。研究人員將這一現象命名為「認知投降」(Cognitive Surrender)——員工過度依賴AI輸出,不再主動質疑或核實內容的準確性。

研究團隊以超過300名知識工作者為對象,在他們的日常工作流程中植入含有刻意錯誤的AI生成文件,結果發現68%的參與者未能識別這些錯誤,便直接將相關內容納入正式工作成果。這不只是粗心,而是一種系統性的認知轉變——研究人員稱之為「自動化偏誤」(Automation Bias):人類在面對AI的輸出時,展現出遠比面對傳統資料來源更低的懷疑程度。

更值得企業警惕的是,研究同時記錄到,參與者的領域專業推理能力在持續使用AI工具的過程中,出現了可量化的衰退。換言之,員工不只是在依賴AI輔助工作,更在逐步放棄自身原有的深度分析能力。

這對企業的影響已超出學術範疇,開始產生實際的商業風險。保險業界率先作出回應,部分專業責任保險公司已要求企業提供文件,證明員工具備審查AI輸出的能力,否則將調整承保條款。法律及財務部門若因未經核實的AI生成內容而造成客戶損失,企業面臨的法律責任風險不容小覷。

研究人員提出了幾項應對建議,以防止企業陷入「認知去技能化」的困境。強制性的AI輸出核查機制,是第一道防線,要求員工在提交任何AI生成內容前必須完成書面審查。部分企業已開始推行「紅隊演練」(Red Team Exercise),刻意向員工提供含有明顯錯誤的AI輸出,藉此測試並維持員工的審查能力。此外,定期稽核員工與AI工具互動方式、針對自動化偏誤提供專項培訓,也被列為關鍵措施。

在全球企業競相導入AI以提升效率的浪潮中,這份研究提出了一個核心問題:當判斷力逐漸外包給機器,企業的真正核心競爭力是否也在無聲無息中流失?善用AI的企業,或許需要建立一套同樣嚴謹的機制,確保人類的思考能力不會成為效率革命的犧牲品。