 |
|
張貼者: |
木蘭
|
|
| 時間: |
2026/1/4 下午 10:17:00
|
| 標題: |
2026年你的關鍵生存技能:忽略關鍵訊息
|
|
內容: |
在這個資訊爆炸、品質低落的時代,我們應該克制住想要搜尋、吸收一切資訊的本能。這需要練習。
克里斯多福·米姆斯/ 2026年1月2日 上午5:30 ET
如果社群媒體是一個真正的生態系統,那麼它的健康狀況就和 20 世紀 60 年代克利夫蘭的凱霍加河一樣糟糕——當時它污染嚴重,屢次起火。
這些災難促成了環保署的成立和《清潔水法》的通過。但到了2026年,對於我們污濁不堪的媒體環境,卻沒有任何類似的措施。
這意味著,作為個體,我們有責任停止攝取人工智慧炮製的「粉紅色黏液」 、煽動憤怒的「永久化學物質」以及以牟利為目的的虛假訊息所造成的「微塑膠」。在這個網路資訊氾濫卻品質低落、幾乎淪為噪音的時代,首要任務是克服我們吸收所有資訊的進化本能,轉而過濾掉不可靠的資訊來源和錯誤數據。
幸運的是,有一種方法:批判性地忽略。
「這並非完全忽視,」山姆溫伯格說道,他是2021年提出這個概念的。 「而是在檢查了一些初步信號之後才採取的忽視態度。我們將其視為對自身脆弱性保持持續警惕。」
「批判性忽視」的概念源自於史丹佛大學教育學榮譽教授溫伯格等人的一項研究,該研究探討如何將專業事實查核員的技能傳授給學校裡的年輕人。他們認為,孩子和成年人都需要具備快速評估陳述真偽及其來源可靠性的能力。自此,「批判性忽視」一詞逐漸發展壯大,涵蓋了一系列技能,其中一些技能可能看似違反常理。
以下是如何在新的一年開始練習批判性忽略的簡要方法:
1. 意識到批判性思考已成為一種負擔 聰明人往往會深入研究有限的訊息,這個過程被稱為批判性思考。但在網路時代,這卻成了一種陷阱。
在人類歷史的大部分時間裡,資訊都十分匱乏。就算只是旅行者口中的一絲風言風語,都可能決定你是在生死邊緣掙扎,還是被劫掠成性的維京人砍頭。直到網路發明之前,取得可靠資訊仍然十分困難——任何還記得紙本目錄的人都能告訴你這一點。我們與生俱來的好奇心、對八卦的嗜好以及對狗血劇情的沉迷,驅使我們花費遠超所需的時間去瀏覽互聯網上的無稽之談。
「對原本應該被忽略的資訊來源進行批判性思考,意味著那些兜售注意力的人和惡意行為者得到了他們想要的東西——我們的注意力,」溫伯格和另外三位來自馬克斯·普朗克人類發展研究所和布里斯托爾大學的研究人員在2023 年的一篇文章中寫道。
2. 請記住,你的注意力是一種稀缺資源。 使用社群媒體究竟有多消耗精力?2021 年一項開創性研究發現,僅僅 30 分鐘的手機瀏覽就會讓我們感到精神疲憊,實際上會降低我們的運動能力。 2022年的一篇論文得出結論,訓練前半小時使用社群媒體會導致嚴重的精神疲勞,甚至影響菁英排球運動員的手眼協調能力。
面對永無止境的媒體轟炸,我們難以集中註意力的問題非常普遍,以至於催生了高科技解決方案,包括功能簡化的手機和電子墨水螢幕設備。
但喬治城大學喬治城-柳葉刀信仰、信任與健康委員會的研究員馬修法恰尼(Matthew Facciani)表示,最簡單的解決方法往往是最好的。法恰尼專門研究假訊息和媒體素養。他建議我們進行自我引導,有意識地調整媒體輸入和瀏覽習慣,以減少花在抵禦網路垃圾訊息的時間。
一個簡單的策略:提前決定你想在螢幕上花費多少時間,然後設定計時器。
3. 要認清「夠真實」是危險的。 羅馬大學電腦科學教授沃爾特·夸特羅喬基表示,聊天機器人對我們撒謊的傾向(被稱為幻覺)似乎是人工智慧特有的現象,但它卻是更大、潛在更危險的現象的一部分。
驅動聊天機器人的生成式人工智慧大型語言模型經過訓練,能夠產生令人信服的結果。但這與確認某件事是否屬實截然不同。
Quattrociocchi 表示:「LLM 以一種特別清晰的方式展現了這種轉變,但同樣的邏輯已經運行多年了。」尤其是在一些人工製作的帖子被演算法放大,而這些演算法根據點讚和互動而非準確性做出反應時,這種轉變更為明顯。
Quattrociocchi表示:「社群媒體已經訓練使用者依賴流暢性、連貫性和社交認可來判斷可信度。」他補充道,因此,在人工智慧和社群媒體領域,「合情合理性都成為了判斷的充分條件」。
他的觀點是:我們正在被哄騙著接受「足夠真實」作為真正真理的替代品——同時失去了自己驗證資訊的習慣。
4. 利用網路對抗自身 在當今的媒體環境中尋找真相,需要一些幾年前還不存在的工具。不妨試試橫向閱讀,它在某種程度上與批判性思考截然相反。當遇到新的觀點時,與其深入探究,不如先退一步,快速搜尋其他人對此的看法。
每台 Chrome 瀏覽器都內建了一個工具,讓你快速評估特定網站的可信度。這個名為「關於此頁面」的工具隱藏在瀏覽器頂部每個網址旁的圖示下方,它是 Wineburg 與 Google 工程師直接合作的成果。
人工智慧也可以用於核實網路上人類(以及其他人工智慧)提出的說法。如果只是讓免費的聊天機器人進行核實,結果可能參差不齊。華盛頓大學博塞爾分校的數位素養專家麥克‧考菲爾德表示,付費服務往往會分配更多的處理能力,從而提供更準確的答案。
考菲爾德開發了「深度背景」(Deep Background),這是一個3500字的提示文本,任何人都可以將其輸入到聊天機器人中。它本質上是一個程序,可以啟動一個多步驟的會話,用於識別、研究和核實一系列說法。他建議僅將其與Claude或ChatGPT的付費版本配合使用。
Deep Background 首先會對某個說法進行調查,然後進行多輪壓力測試來驗證其結論。這一點尤其重要,因為聊天機器人依賴我們所有人都在努力應對的、充斥著各種資訊的網路。考菲爾德指出,即使是許多看似幻覺的內容,實際上也是聊天機器人對錯誤訊息來源的忠實總結。
用人工智慧對抗人工智慧聽起來似乎自相矛盾。但事實上,我們一直以來都是這樣做的:利用新技術來彌補早期科技造成的破壞。庫亞霍加河曾因工業化失控而遭受嚴重破壞,長達數十年的治理工作需要新技術來監測和修復水質。
淨化媒體環境的技術仍處於起步階段。即便這些技術不斷改進,有一點不會改變:我們仍然需要確保自己不被演算法催眠,並且要獨立思考。
|
|