當來源是機器人:人們如何調整評估策略以審視AI生成內容

站主自己的課程,請大家支持
揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站? 揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站?
  • Post by
  • Mar 30, 2026
post-thumb

當你問ChatGPT一個複雜的科學問題,它給你一篇流暢、引經據典的長文回覆,你會全盤接受,還是心生懷疑?一項來自以色列理工學院的最新研究告訴我們,聰明的網路使用者已經發展出兩套全新的「偵探策略」來對付AI,但同時,我們的大腦也可能正被AI那無懈可擊的「自信語氣」悄悄說服。

我們真的知道自己在跟「誰」說話嗎?

答案很矛盾:我們知道,但我們的行為卻顯示我們忘了。 研究團隊設計了一個巧妙的實驗,讓30位來自不同教育背景的成年人,分別使用傳統搜尋引擎(如Google)和生成式AI(模擬ChatGPT的介面)來評估兩個具有爭議的科學社會議題。結果發現,高達87%的參與者在開始使用AI工具時,能明確意識到資訊來源是「人工智慧模型」而非人類專家。然而,在後續的決策與評估過程中,超過60%的人表現出的行為模式,卻彷彿在與一個權威、可信的單一資訊來源互動,而非一個需要交叉驗證的資訊聚合器。

這揭示了數位素養中一個關鍵的斷層:認知與實踐的落差。我們「知道」AI會幻覺(Hallucinate)、會編造來源,但當它用無比流暢、結構清晰的語言將答案呈現在我們面前時,我們內建的「啟發式判斷」(Heuristic)——例如「表達流暢等於正確」——很容易就被啟動,壓過了理性的懷疑。一位參與研究的受訪者坦言:「當AI的回答看起來這麼完整、有條理,還附帶像是『根據多項研究指出』這樣的用語時,要不停下來懷疑它,其實需要額外的認知努力。」

傳統搜尋 vs. AI對話:我們的偵探工具箱有何不同?

為了更清楚對比,我們可以看看研究發現的兩種平台使用行為模式:

評估維度傳統搜尋引擎 (如Google)生成式AI (如ChatGPT)
資訊呈現方式多條連結、摘要片段,需要使用者自行點選、整合。單一、連貫、結構化的完整答案。
使用者主要策略橫向比對 (Lateral Reading):快速點開多個來源,比較說法,評估網站權威性。縱深評估 (Vertical Evaluation):針對AI給出的單一答案,進行內容邏輯、內部一致性的深度檢視。
「來源」的意義來源即「網站」或「發布機構」,是評估可信度的首要依據。來源被內化於答案中,AI成為「轉述者」,來源的權威性變得模糊。
主要認知負荷資訊篩選與整合的負荷較高。批判性思考與驗證的負荷較高(但常被使用者忽略)。

從表格可以看出,AI改變了資訊驗證的戰場。過去我們在搜尋結果頁面練習的,是「哪個來源更可靠」的判斷;現在面對AI,我們必須練習的,是「這段論述本身是否合理」的邏輯思辨。這是一項更進階、也更容易被AI流暢文筆所蒙蔽的技能。

面對AI,人們發展出哪兩種全新的「偵探策略」?

研究團隊從質性資料中,萃取出兩種新興的評估策略:「代表性評估」與「來源評估」。 這不是受訪者自己說出的名詞,而是研究者在分析他們如何檢查AI答案時,觀察到的兩套系統性方法。有趣的是,這兩種策略都圍繞著一個核心問題:「我該如何驗證一個我『看不見』來源清單的答案?」

第一種策略是 「代表性評估」 。使用者不再(或無法)追蹤AI引用的每一個原始研究,而是評估AI的總結是否「看起來」合理、全面地代表了該主題的已知討論。例如,當AI回答一個關於基因編輯倫理的爭議時,使用者會判斷:「它是否有提到正反雙方的論點?它使用的例子是否是我在其他地方聽過的典型論述?」如果AI的總結「感覺上」具代表性,就會被認為更可信。研究數據顯示,約有73%的參與者在訪談中不自覺地運用了這種策略。

第二種策略則是 「來源評估」 ,但這裡的「來源」意義已經轉變。使用者會試圖評估AI「本身」作為一個資訊管道的屬性。他們會問:「這個AI模型(如ChatGPT-4)通常可靠嗎?」、「它背後的公司在資料訓練上信譽如何?」甚至「我這次的提問方式(提示詞)夠不夠精準,以引導它給出好答案?」。這是一種將評估焦點從「內容的來源」轉移到「內容生成機制的可靠性」上的策略。約有55%的參與者展現出這種思考。

graph TD A[使用者面對AI生成內容] --> B{啟動評估策略}; B --> C[策略一: 代表性評估]; C --> C1[評估內容「表面效度」]; C1 --> C2[檢查論述是否全面、平衡]; C2 --> C3[對比自身先備知識]; C3 --> D[結論: 是否「看似」可信?]; B --> E[策略二: 來源評估]; E --> E1[評估AI模型本身信譽]; E1 --> E2[評估開發公司背景]; E2 --> E3[反思自身提問品質]; E3 --> F[結論: 生成機制是否可靠?]; D --> G[形成最終可信度判斷]; F --> G;

上圖清晰地展示了這兩條並行的評估路徑。關鍵在於,這兩條路徑都繞過了對原始證據的直接查核,轉而依賴次級指標或自身經驗。這在資訊爆炸的時代或許是有效率的捷徑,但也埋下了被系統性誤導的風險。

一個真實的案例:氣候變遷議題的「平衡錯覺」

讓我分享一個研究中的具體案例。一位擁有環境科學背景的參與者,被要求使用AI工具評估「核能是否應作為對抗氣候變遷的主要工具」。AI給出了一篇非常「平衡」的回答,列出了核能的優點(低碳、穩定供電)和缺點(核廢料、建造成本、公眾恐懼),並總結說「這是一個需要社會共識的複雜議題」。

這位參與者事後表示:「我覺得這個回答很棒,很全面,它沒有偏袒任何一方。」他運用了強烈的「代表性評估」——答案涵蓋了正反方,符合他對「優質論述」的期待。然而,他沒有進一步追問:AI所引用的「多項研究」中,支持與反對的比例是否真實反映了科學共識?它是否輕描淡寫了國際能源總署(IEA)等機構對核能在淨零路徑中「有限但重要」角色的最新評估?

這個案例凸顯了「代表性評估」的陷阱:AI可以通過構造一個邏輯自洽、觀點平衡的「敘事框架」,來創造一種虛假的可信度,讓使用者滿足於表面的全面性,而停止更深層的探究。 這種「平衡錯覺」在處理社會科學爭議時尤其危險。

AI的「自信語氣」是如何悄悄削弱我們的批判力的?

答案是:透過扮演一個無所不知、永不遲疑的「權威敘事者」角色。 研究中有個令人玩味的發現:即使參與者被明確告知AI可能出錯,他們在訪談中仍頻繁使用「它說…」、「它解釋道…」、「它指出…」這樣的措辭來引用AI的內容。這種語言將AI人格化,無形中賦予了它類似人類專家的代理感。

更關鍵的是,生成式AI的設計本質就是「提供答案」,而非「展示探索過程」。它不會像搜尋引擎那樣,給你10個藍色連結,並告訴你「結果1和結果3的說法完全相反,請你自己判斷」。它會消化(或編造)大量資訊,然後產出一個單一、連貫、語氣確定的答案。這種「確定性」的呈現,極具說服力。一項輔助性的行為數據顯示,與使用搜尋引擎相比,使用AI工具後,參與者改變其初始立場的比例低了約35%。他們不是因為被更好的證據說服,而是被更流暢、更自信的敘述「定錨」了。

這引發了一個深層的教育與社會問題:當下一代習慣於向一個永不說「我不知道」的智慧體尋求終極答案時,他們對於「不確定性」、「知識邊界」以及「持續探究」的理解會如何變化?我們是否在培養一個追求「快速、確定答案」,而非享受「複雜、探索過程」的社會?

數據會說話:三組關鍵研究發現

為了讓大家更具體地感受這項研究的洞察,我整理了其中三組核心數據:

發現主題具體數據背後意涵
策略使用普及度超過 70% 的參與者展現出「代表性評估」策略;超過 50% 展現出「來源評估」策略。面對AI,人們並非毫無作為,而是發展出了新的、適應性的驗證方法。
驗證行為差異使用搜尋引擎時,參與者平均會點開 4.2個 不同來源進行比對;使用AI時,僅有 1.5次 嘗試進行外部查證。AI的「一站式答案」顯著降低了使用者進行外部交叉驗證的動機和頻率。
認知信任落差87% 的人認知上知道AI會出錯,但在任務中表現出的信任行為(如直接引用、不加查核)卻與此認知嚴重不符。「知道」與「做到」之間存在巨大鴻溝,凸顯了對抗AI幻覺需要的不只是知識,更是刻意練習的習慣。

這些數字告訴我們,對抗AI資訊風險,不能只靠一句「大家要小心查證」的口號。我們需要更結構化的數位素養教育,專門針對AI時代的新挑戰進行設計。

身為現代讀者與創作者,我們該如何武裝自己?

答案是:升級你的「數位偵探工具箱」,並永遠保持「元認知」的警覺。 無論你是吸收資訊的讀者,還是使用AI輔助的內容創作者,以下幾點實戰建議或許能幫到你:

  1. 強制執行「外部查證」儀式:無論AI的回答看起來多麼完美,養成習慣,將其核心主張或引用的關鍵事實,作為關鍵詞丟回傳統搜尋引擎。看看真實的網路世界是如何討論這個話題的。這是在重建被AI省略掉的「資訊脈絡」。

  2. 練習「提示詞偵探術」:進行「來源評估」時,積極反思你的提問。模糊的問題得到模糊(但可能看起來很具體)的答案。試著追問:「你這個結論主要依據哪幾篇最具影響力的研究?」、「請列出支持與反對該觀點的主要論據及其代表性學者」。好的提示詞能逼出AI的「思考過程」。

  3. 擁抱「不確定性」為盟友:對那些語氣過度確定、宣稱有單一簡單解決方案的AI內容保持最高警惕。真正的科學與複雜社會議題,其語言往往充滿「可能」、「在某種程度上」、「根據部分研究」等限定詞。將AI內容中的確定性語氣,視為一個需要驗證的紅旗信號。

  4. 創作者的責任:主動「揭露與標註」:如果你使用AI輔助創作,建立讀者信任的最佳方式就是透明化。可以在文末說明哪些部分使用了AI輔助生成、你進行了哪些人工的查核與編輯。這不僅是倫理,更是高品質內容的新標配。

這場人類與AI在資訊場域的共舞才剛剛開始。以色列理工學院的這項研究,像是一盞探照燈,照亮了我們在不知不覺中改變的思考習慣。AI不是敵人,但它是一個強大而陌生的舞伴。要跳好這支舞,我們不能只跟著它的節奏,更需要清楚自己的舞步,時時確認腳下的地面是否堅實。畢竟,在資訊的世界裡,最重要的永遠不是答案的速度,而是尋找真相的羅盤是否始終握在我們自己手中。


原始來源

TAG