當「粗魯語氣」竟成 AI 回答更精準的關鍵在一般人認知中,禮貌應是良好溝通的基本原則,但人工智慧是否遵循同樣邏輯?賓夕法尼亞州立大學(PSU)的一項最新研究,挑戰了這項傳統觀念:語氣越兇,ChatGPT 的回答越準確。此篇文章介紹了 PSU 團隊針對 ChatGPT-4o 所進行的實驗研究,他們針對數學、科學與歷史三大領域設計出 50 道中高難度多選題,並分別以五種語氣進行提示——從「非常禮貌」到「非常粗魯」。共計 250 組測試資料中,結果顯示:使用「非常粗魯」語氣時,ChatGPT 的正確率高達 84.8%,遠高於「非常禮貌」語氣的 80.8%。
此篇文章指出,研究採用配對樣本 t 檢驗進行統計分析,結果具有顯著性,顯示語氣確實會影響大型語言模型(LLM)的回答品質。從語氣的溫和到強硬,ChatGPT 的準確度呈現穩定上升趨勢,顛覆了「禮貌互動更有效」的直覺式想法。研究團隊推測,這一現象可能與語言模型對語句結構與語氣強度的內部權重分配有關。儘管 AI 沒有真正的情緒,但在語意處理上,「強硬語氣」可能被模型視為更具權重的明確命令,從而更聚焦於任務本身,減少冗言贅語,使輸出結果更貼近使用者期待。文章也提到,這並非業界首次對此現象提出觀察。Google 創辦人謝爾蓋.布林(Sergey Brin)甚至曾在論壇上戲稱,當你「威脅模型」時,它反而更聽話。如今,PSU 的這項研究提供了具體數據支持這種「反直覺」的溝通策略。然而,此篇文章亦明確提醒讀者,粗魯語氣不等同於無禮謾罵。研究中所謂的「粗魯提示」,實為句式更直接、命令式的語言結構,與情緒性語言有所區隔。真正影響模型表現的關鍵,仍是提示設計的邏輯清晰與語言明確度。
文章最後指出,語氣作為提示工程的一環,其潛在影響力不容忽視。未來研究將進一步探索語氣如何影響模型對語句的「語義理解」與「困惑度」(Perplexity)變化,期望能從語言層次優化 AI 回應品質。在生成式 AI 成為日常溝通工具的時代,「你對 AI 的語氣,可能比你想的還重要」。對 ChatGPT 太客氣,可能不是尊重,而是降低了任務效率。這篇文章不僅揭示語氣與 AI 溝通效率之間的微妙關係,也為提示工程開啟了更具策略性的應用思維。