2023/06/29
近日一項新研究發現,人類不僅無法分辨出由 OpenAI 模型 GPT-3 撰寫的推文,且還更容易被這類 AI 生成的推文說服,無論該推文中的資訊是否正確。
蘇黎世大學生物醫學倫理和醫學史研究所的博士後研究員和研究數據經理 Giovanni Spitale是這項研究的主要作者,他指出,這些 AI 技術可以很容易被濫用與武器化,在任何想要的主題製造假訊息風暴。
Spitale 和團隊蒐集了 Twitter 上的推文,這些推文討論 11 個不同的科學主題,從疫苗、COVID-19 到氣候變遷、進化等。接著,他們使用 GPT-3 將這些資訊寫成「正確」以及「不準確」的資訊,隨後,在 2022 年透過臉書廣告在線上蒐集了 697 位參與者的回覆,參與者大部分是英語使用者,來自英國、澳洲、加拿大、美國、愛爾蘭等地。
結果發現,參與者根本無法分辨哪些推文是人類撰寫、哪些是 GPT-3 撰寫的。此外,他們更容易辨識出由人類撰寫的推文是具有誤導性的假訊息;同樣的,參與者也較相信由 GPT-3 所撰寫的正確資訊。這代表 GPT-3 所撰寫的訊息,無論其資訊正確與否,都比人類所寫的更有說服力。
資料來源:https://www.inside.com.tw/article/32035-ai-convincing-than-real-people