推文:Facebook Facebook Facebook
 
出版品 > 新使者雜誌 > 第207期 現在還搞文字事工是否搞錯了什麼?
字級調整:

本期主題
生成式 AI 時代,文字寫作何去何從?
當大量文字勞動被釋放後,人的腦力會轉移去哪裡?會不會有一些原本不可能存在的創作型態、組織方式甚至社會關係,會因為這個新科技而長出來?
關鍵字:AI 時代  文字 
作者/侯宗佑 (立政治大學數位內容與科技學程助理教授、機器人與UX設計師)
這幾年,生成式AI漸漸成為我們的日常:學生交作業、公司寫簡報、主管回信、客服答覆,甚至擴展到不應該用AI的情況——比如情侶吵架後的道歉訊息等等,越來越多的文字,不再是人寫的,而是交給AI,請它「幫我說話」。
 
我們開始習慣用AI潤飾、擴寫、摘要、改語氣;我們開始把文字外包到一個看似全知全能、語句優美流暢的系統裡。於是,心裡的焦慮——尤其是對原本以文字為業的人來說——隨之浮現:如果AI已經能生成那麼多、那麼好的文字,文字本身還重要嗎?人還需要寫作嗎?人的創作文字還能作為一種介面嗎?還是我們乾脆讓機器吐出標準答案就好?
 
身為一個機器人與AI的研究者,我想先把結論講在前面:生成式AI確實會取代大量「常見的文字生產」,但它很難取代文字作為思想載體的地位。更精準一點說:它能取代的是「把意思寫得通順」,但極難取代所有的人類寫作。
 
要理解這件事,我們得先從生成式AI的原理開始。
 
AI雖然「博覽群書」,但原理其實只是機率補字

很多人對生成式AI的誤解,來自於它的表現太像一個博覽群書的學者:你問它,它就答;你請它整理,它就把重點條列分明。這讓人很容易產生一種錯覺,以為它腦中真的有知識,甚至具備某種理解能力。
 
但生成式AI(尤其是大型語言模型,Large Language Model, LLM)最核心的工作,其實可以用一句很直白的話描述:它在計算機率,去猜下一個字或下一個詞最可能是什麼。
 
它是怎麼做到的?它被餵食了大量的人類文本——書籍、新聞、網頁、論壇、論文。它在訓練過程中反覆進行同一件事:看到一段文字的前半段,就去預測後面會出現什麼字。猜錯修正,猜對獎勵。久而久之,它學會了極其複雜的語言規律:哪些字常一起出現?哪種句型在什麼語境下合理?哪種語氣像是「專業」或「溫柔」?
 
所以你會看到它很會寫一封得體的回信、一段公關聲明、一篇頭頭是道的短評。但別忘了:這一切本質上仍是機率運算。它不是透過文字表達他所認知到的世界,而只是在「排列組合」文字。
 
這個差別非常關鍵,因為接下來所有的討論,都基於這個原理。
 
AI的世界主要長在文字裡,缺少「身體」與「現場」

所以,AI知道「藍色」這個詞,知道英文是 “blue",知道日文可能是「青い」,也知道藍色在文學裡常被隱喻為憂鬱、深邃或遼闊。但它沒有真的看過藍色。
 
它沒有眼睛,不會在午後的窗邊突然被一片藍刺痛雙眼;不會在蘭嶼的海邊,被那種「清澈到不像在人間的海藍漸層」撫慰;也不會記得某一次分手後,天空的藍看起來格外空洞。
 
也許有一天,AI能靠影像模型、感測器補上這些缺口,但以我們今天接觸到的大多數生成式AI來說,它的知識主要仍建立在「文字裡的世界」。
 
而我們知道,文字與真實世界之間,永遠存在著一道牆。
 
這道牆造成了兩個結果:第一,它很容易「打高空」。它可以講出一段看起來邏輯完整的道理,但那道理常常沒有「現場感」:沒有人的尷尬、沒有身體的遲疑、沒有社會關係裡那種微妙的權力流動。於是它很容易把一切問題「合理化」,把所有矛盾「語言化」,最後寫出一篇完美但空洞的文章。
 
第二,它很難產生真正的「人對人的洞見」。人喜歡什麼、不喜歡什麼,往往不是源於語言推理,而是來自生命經驗的累積:創傷、羞恥、渴望、愛慕、失落、嫉妒、疲憊。這些東西不是「聽過」就能理解,而是需要被活過、體驗過。AI可以從文字裡學到「很多人說自己喜歡藍色」,但它沒有那種主觀的、帶有重量的感受。
 
所以你會發現:AI非常適合做「文本操作」,但要靠它產出「洞見」卻十分困難。它可以幫你把話講順,卻說不出那些每個人都體驗過,只是難以被文字捕捉的日常。
 
AI擅長平均值,但文學與思想常常靠「偏離」

生成式AI為什麼看起來那麼會寫?一個殘酷但誠實的答案是:因為我們日常需要的大多數文字,本來就很「普通」。
 
公文、報告、客服回覆、標準化聲明——這些文字追求的不是驚人,而是清楚;不是偏離,而是符合預期。而生成式AI的演算法天生就是在做「最合理的下一步」,也就是在往語言的中心靠攏:哪種說法最常見?哪種語氣最容易被接受?它就會自動往那裡走。
 
但問題是:有價值的文字創作,很多時候恰恰不是往中心走。
 
真正的寫作(尤其是人文、文學、思想性寫作)常常是在走鋼索:把不該放在一起的字詞放在一起,把大家習慣的敘事扭一下,讓人突然看到另一種可能。那種「跳躍式」的創造——藝術的怪誕、思想的刺點——通常不是最合理、最常見的組合,而是「原本覺得不合理,但讀完你才發現這是一個新世界」那樣的效果。
 
如果你要寫的是「大家都看得懂的通順文章」,AI很強。但如果你要寫的是「之前沒有人用這樣的角度講過」,那就不一定了。甚至可以說:當你越想寫出真正創新的東西,AI越容易把你拉回安全的平均值。而且越修會越平均,越無趣。我想使用過AI的人,應該都知道我在說什麼。
 
AI幻覺不可怕,可怕的是它遇到人類的認知習慣:當單一敘事取代了判斷

再來談一個大家都已經聽過的問題:AI會胡說八道,會產生「幻覺」(Hallucination)。
 
幻覺其實不是什麼神秘現象。回到原理就很直白:因為生成式AI的本質就是機率預測。當你問的問題在訓練語料裡沒有足夠對應內容,它仍然會努力猜一個看起來合理的答案。因為在設計上,我們通常不希望它一直回「我不知道」,所以系統會被調校成盡量給出一個完整回答。
 
這在很多情境下是優點:它能推測、能補全、能提供方向。
 
但這也帶來副作用:AI可能用非常自信的語氣,講出不存在的引用、錯誤的事實或混雜真假的論述。簡而言之,就是瞎掰。
 
然而,最危險的不是幻覺本身,而是幻覺如何和人類的認知系統結合。
 
想想看:什麼時候你會去問AI?
 
通常不是在你最熟的領域。你越熟,你越能挑錯,你越容易覺得AI「也不怎麼樣」。
 
相反地,在你越不熟的領域、你不確定的問題、你懶得查資料的時候,你才最會去問AI。也就是說:你最依賴AI的時候,恰好是你最沒有能力辨識它在瞎掰鬼扯的時候。
 
這就形成一個很糟糕的困境:你熟的地方,你不信它;你不熟的地方,你信它。
 
這跟Google搜尋的差別很大。Google每次搜尋,會給你一整排結果。你可能不知道哪個最對,但你至少會不自覺做比較:看標題、看來源、看多個頁面是否一致——你會在雜訊裡自己做一點判斷。
 
但AI常常是一個「單一敘事」:它給你一個肯定的答案,用一種肯定的語氣、一段看似很完整的論述。它不只像工具,而更像一個擁有壟斷權的媒體,或是一個語氣權威的老師。
 
如果我們不把這個結構性風險看清楚,不自己做判斷、查證,而輕信AI,我們就會進入一個危險的時代。
 
一個老例子:Google Map不是讓人變成路癡,而是改寫了城市

最後我想舉一個看似跟AI不相關、但很能幫我們換個角度思考的例子:十年前我的碩士論文的研究,做的主題是Google Map。
 
當年Google Map剛普及時,新聞上常常可以看到一種批評:用導航的人變笨了。他們只會傻傻盯著地圖,從A點到B點,但事後卻什麼都不記得。沒有地圖,他們就變成路癡。
 
所以那時候我就在指導教授的協助下,做了一個實體的實驗,來驗證這種批評是不是有道理:我找了一群人,指定一半的人用Google Map,另一半的人用紙本地圖,讓他們從我們學校出發,要他們走到20分鐘路程外的一家巧克力店。一次實驗我就做一個人,然後我就跟著這個人後面走,看看他總共做了什麼行為?怎麼用手中的地圖工具?實驗結束之後,我再進行一些測試,看看他記得什麼。
 
結果很有趣:使用Google Map的人,對街道名稱的記憶確實比較差,畫出來的地圖也顯示,他們連在過程中是左轉還右轉都記不得。但非常有趣的是,他們跟使用傳統紙地圖的人比起來,反而更記得沿途的街景細節,以及附近有哪些店家。而使用紙本地圖的人,為了不停定位自己在哪條路上,他們的注意力被街名和方位吃掉了,反而忽略了環境本身。
 
我想這個結果可以提醒我們:新科技常常不是單純「讓人變笨」或「取代能力」。很多時候它是在重新分配人的注意力。科技把某些思考的負擔拿走,人的大腦就會把空出來的餘裕,投到別的地方——而那個「別的地方」往往會創造出新的社會風景。
 
就像Google Map不只讓我們比較容易到達目的地,它還改變了城市。以前大家找吃的、喝的會往大街、夜市;但在地圖與評價系統普及後,很多厲害的小店可以活在巷弄裡。城市的分布,就這樣被重寫了。
 
我們當年以為它只是導航,結果它其實改變了整個城市的經濟與生活模式。
 
我覺得AI也可能是這樣。我們與其停在「用AI的人會變笨」這種批判性的焦慮,不如進一步去問:當大量文字勞動被釋放後,人的腦力會轉移去哪裡?會不會有一些原本不可能存在的創作型態、組織方式甚至社會關係,會因為這個新科技而長出來?
 
把文字留給仍然重要的地方

所以,生成式AI出現之後,人類的文字,就要失去價值了嗎?
 
我一半同意,但也一半不同意:在未來,不是每一段文字都值得人用手工去寫,但也不是每一段話都可以交給AI代寫。
 
AI可以是很好的助手,幫忙處理「可預測、可標準化、可模板化」的文字。但人依然需要寫作。當「常見文字」變得太便宜,真正稀缺的會變成另一種能力:你能不能提出新的問題?你能不能把人類的真實經驗寫出重量?你能不能在眾聲喧嘩的資訊裡,寫出一個不容易被算法吞掉的角度?
 
更重要的是:寫作是一種承擔——文字不是只有傳遞資訊,文字同時是人整理自身、對抗混亂、與他人建立關係的方式。你寫下來,你其實是在說:我願意為這段話負責。
 
AI無法負責。你可以喜歡AI文字的流暢,但你很難要求它為說的話付出代價。這也是為什麼我認為在未來,「真人寫作」不只是技術,而會更像一種姿態:我在場,我承擔,我用語言讓你看見我所經驗的,我的世界。
 
面對新科技,我不覺得只有兩種態度:歡喜擁抱或恐懼抗拒。我覺得更健康、更有建設性的,是同時看見它的優點與缺點:理解它會在哪裡幫上忙?在哪裡帶來風險?並且保留一種「願意持續修正」、步步為營的謹慎。
 
每一次科技變革,被改變的都不只是工具,而是人的感知方式與社會的運作方式。
 
當生成式AI讓「常見文字」變得廉價,真正人寫的文字會更珍貴。那不單單是因為寫作花時間,也是因為寫作背後的意義——這世界上,有那麼一個願意負責、願意分享、願意在這快速變動的時代,把世界看出新意思的,一個活生生的人。
同作者相關文章:
生成式 AI 時代,文字寫作何去何從? (第 207 期)

原文來自 https://newmsgr.pct.org.tw/magazine.aspx新使者雜誌 第 207 期 現在還搞文字事工是否搞錯了什麼? (10-16頁)
新使者雜誌 The New Messenger  207期  2026年  4月 現在還搞文字事工是否搞錯了什麼? 207
本期主題:現在還搞文字事工是否搞錯了什麼?
發行日期:2026/4/10
 
推文:Facebook Facebook Facebook
轉寄給好友分享
 
轉寄文章給好友
寄件人: Email:
收件人Eamil:
分享的話:
 
個人閱讀心得分享
我們沒有搞錯,讓文字繼續做見證
關於文字事工轉生變成新載體這檔事——形式更新之後,信仰還願意慢、深、難嗎?
生成式 AI 時代,文字寫作何去何從?
見證的重量:《耕心》週刊在文字事工式微中的自我探問
《女宣》:台灣教會婦女的文字記憶與發聲管道
文字不死,只是道成肉身:論數位匯流時代下的教會文字事工新戰略
 
台灣基督長老教會總會使用條款隱私權條款聯絡我們

106613 台北市羅斯福路三段269巷3號    電話:02-2362-5282     gospel.pct.org.tw All Rights Reserved.
powered by ICPCT. 台灣基督長老教會總會資訊中心建置維護