人工智慧 (Artificial intelli- (Artificial intelligence, AI) 儼然成為近年的熱門話題,從聊天機器人,到各種的偽造與詐欺手段層出不窮。當我們享受著智慧設備帶來的人生美好時光,卻也不得不正視這個技術進步帶來的風險。
技術變革帶來給人類的衝擊,向來都是緩慢而突然地發生。卅年前的網路又慢又不方便,能夠使用文字聊天,已經讓宅宅們可以打開世界之門;隨之而來的是鋪天蓋地的網站與網頁,沒有搜尋引擎,是不可能更快速地去接觸世界每一角落;電腦設備開始有了使用者介面,有了觸控筆,有了手滑螢幕,網路世界一下子對一般群眾展現出了友善的互動方式;移動網路與移動設備的成熟,讓現在人人有手機,並有一堆依賴成癮的 App 不斷地滑著螢幕;最近各式各樣的 AI 應用,彷彿面對真人的回應,又期待又怕受傷害。
技術變革所帶來的,是新的生活形態改變,有人擁抱、有人順應、有人抗拒、有人被淘汰。每一個技術變革階段,都有人被淘汰,這些被淘汰者並非沒有前進,而是其他人使用了技術變革、而跑得更快。面對 AI 這個技術變革,我們應該如何去面對呢?
AI 帶給我們生活上的影響是很明顯的。各種智慧型設備(手機、平板)、智慧家電、輔助自動駕駛,都是透過 AI 技術,讓我們的生活更有質感。但除了現實生活環境之外,更多是在於數位生活環境的影響。當我們的生活依賴網路服務,比如電子支付、社群媒體、工作溝通,在線上與線下切換之際,我們會突然發現,數位生活環境的個人顯露,是以「形象」的方式呈現;以商業運作來說,就是品牌。當一個技術,可能仿冒我們的「數位形象」,甚至取而代之時,該如何自處?
面對 AI 浪潮,這麼大的變化,難免會有些擔憂。然而,大部分的擔憂,是經不起分析的。
(一) AI 會取代人類嗎?這個擔憂並不是 AI 時代才發生的,在每一個技術變革的時候,甚至在每一個時代轉換的時候,都會有這個問題:這個變革與轉換,會不會取代人類的價值?
讓我們直接面對變革的意義—把現有的狀況進行大幅度的改變。這同時意味著,人類的生活會受到相當程度的影響,這同時包含生活形態的改變、工作型態的改變、甚至是價值觀、社會觀的改變。有一部份的工作會因為 AI 工具的成熟而被取代,但更多的工作,是因為能夠善用 AI 成為好幫手來工作而產生的。因此,需要擔心的,並不是每個人的工作都會被 AI 給侵佔,而是有相當比例的人,他的工作會被 AI 工具所影響,至於是好的影響、或者壞的影響,端看這個工作可以如何應用 AI 作為輔助。
換個角度來說,AI工具的社會性影響,不是只在於某群人的工作型態而已,更大的程度會在拉大知識工具的貧富差距,知道如何善用 AI 工具的族群,會更快地取得社會資源而站在優勢方。這個趨勢影響,正如工業革命帶動了機械化與自動化生產,是不可逆的趨勢。
那麼,在這個趨勢形成之初期,我們該如何面對與自處?最直接的方式,就是去學習並熟習 AI 工具。AI 的發展過程幾乎都是模仿人類思維與學習方式,從而顯現出類似人類智慧的反應,但並不會發展出人的核心信念,比如正義、犧牲、盼望、愛。在這些超越理性的決策上,不需要也不應該交給 AI,但一般性、重複性、普遍性的工作模式,是可以參考 AI 的建議。也就是說,將 AI 視為一個好的工作夥伴,人類來處理核心問題,讓 AI 來處理剩餘的細節。
(二)人類會不會被 AI 所奴役?這個擔憂前提是 AI 有意識,而且是惡意的意識,想要把另外一個物種(就是人類)作為工具使用。這個擔憂還言之過早,畢竟 AI 要發展出自我意識的困難度仍高,是否 AI 科技的發展有絕對的瓶頸,仍未可知。但這個擔憂過度投射自己現有的困境在新的角色上,或許也是受到許多科幻小說或者戲劇的影響。解法應該就是:回到現實生活上,先面對一定會需要面對的情況吧。
(三) AI 會不會有意識?這個擔憂可以說是前一個擔憂的前提,但是這個擔憂是更需要仔細思考的。如果 AI 有意識的話,他會不會產生自我認知與情緒?AI 要如何定義自我形象?如果 AI 有意識的話,人的角色定位會變嗎?人就不再是少數具有自我意識物種,就得要跟這個新的意識群體來對話嗎?如果 AI 有意識的話,信仰是否需要重新定義?AI 會有靈魂嗎?屆時,是不是需要跟 AI 來傳福音?
一樣地,這些擔憂都還過早,就讓我們保持戒慎恐懼的謙遜,但不用因此而影響現實的生活吧。
(四)AI 影響下,數位環境安全嗎?這個擔憂就比較實際一些了。現在人的生活離不開數位環境,所以,要如何辨認在數位環境下的另外一端是可信任的,這件事情就變成我們必須知道的防衛知識。
數位詐騙有哪些?最直接而時常遇到的,就是身份偽造的方式,來取得使用者的信任,進而竊取資訊與財物。目前政府有許多的反詐騙宣傳,多了解就可以多一分安全。AI 的技術,可以模擬出人的聲音、影響,使用 Deepfake 技術就可以做出十分像真人的影像。因此,在數位環境中,多方面驗證才能更多一份保障。
另外一種詐騙,就是假消息散播。由於社群媒體的普及,加上大家對於消息的不查證就轉發,導致許多人可以利用這個管道去散佈不實消息。AI 工具也加速了假消息的生成,每到選舉,這類的假消息就層出不窮,影響所及,大家對於消息的可信度都有相當大的誤差,自己相信的會更相信,因此很難進入理性討論。
前面提到是詐騙,但更具攻擊性的是駭客資料盜用。由於社交工具普及,大家使用率高,導致個資取得容易,駭客很容易利用一些工具來進入個人設備來盜用資訊。另外一個 AI 工具的誤用,就是讓駭客門檻降低,有心要當駭客的資訊與工具變成不是那麼難的事情。
其他的情境,就類似廠商資訊洩漏,對於某些低度保護的資訊外流而不自知;有些是正常使用的情境卻資訊外流,因為不自覺地將個資暴露出來,這些都是我們在數位環境中生活的人需要注意與學習的。
那麼,面對這樣的狀況與擔憂,我們有哪些事情可以做的呢?
(一)要清楚了解風險:過度擔憂不會降低風險。風險並不是未知 (unknown),而是不確定 (un- (unknown),而是不確定 (uncertain)。我們並不需要成為 AI 專家才能夠掌握風險,所需要瞭解的事情,是去瞭解 AI 能做什麼、有哪些應用,什麼做不到,哪些可以成為我們的幫助,哪些地方需要注意小心。越多知道,越少風險,才能真正降低擔憂。
(二)要增加知識抗體:如同面對傳染病最好的方式就是自己有足夠的抗體,我們也要想辦法增加知識抗體。有一個練習,建議大家常常去做,就是「評估某個可能有多少發生機率」。危言聳聽的文章,通常都會有一些常用的套路,就是在結論裡面說某件事情是有可能發生的;但這些文章往往都不說明這些可能發生事情的機率有多高,因此也不能說這個說法是錯的。閱讀者如果不善於辨認此種陷阱,就很容易「寧可信其有、不可信其無」而接受,甚至會成為此說法的傳播者。原因為何?因為把一個事情說成故事相對簡單,人很容易接受,但把一個事情的發生機率找出來,就不是人願意去做的事情。然而,我們許多時候,花大把時間、金錢在防止極低機率事件的發生,卻往往忽略掉在眼前需要處理的高機率事件。一旦我們開始練習評估發生機率,就可以發現大部分的擔憂都可以消除大半。
(三)不要過度想像,傳遞過度情緒:人在擔憂情境下,很容易自己開小視窗,在腦海裡面自編自導很多災難片。把最壞狀況想到極致,往往就是自己嚇自己。用前面所說的,大部分最壞狀況出現的機率其實極低的,但我們往往會因為過度想像而帶來過度情緒。你不會因為手機電磁波很強,就擔心到完全不碰手機。滑坡邏輯不會讓風險降低,況且,滑坡情境要能夠發生需要大量資源,現實世界不一定容易達到。
(四)不要傳遞錯誤訊息:過度想像帶來的高度情緒,容易讓我們對於相關議題過度敏感,導致對訊息辨認的警覺度降低。以台灣最盛行的通訊軟體 LINE 來舉例,有許多時候我們收到的訊息,看起來對人有幫助的資訊,因為情緒引導判斷此資訊的重要緊急程度高,很容易我們就手一滑轉發分享出去了。特別現在 AI 工具很容易製造出逼真的圖或者影片,我們得更謹慎,不要變成謠言的幫凶。下此收到此類訊息,請先「停」(想一下)、「看」(查詢一下是否為真),再來做分享。
(五)盡量清楚瞭解 AI 的應用範圍與情境:AI 工具的普遍已經不能阻擋,我們所要做的,是改善環境,讓 AI 的使用在可控的風險下。就政府方面,建議要從法律與規範方面著手,讓 AI 工具是在安全的範圍中來使用;就社會方面,要普遍性地形成道德規範,同時教育在 AI 的使用限制;就個人來說,不要過度依賴與相信 AI 的產出,畢竟 AI 還是一個新的變動,各種錯誤以及誤用的情況會陸續地發生以及被修正。
作為這幾年最大的技術變革,AI 帶給我們許多便利與想像,但也給我們許多的不確定性。我們所需要做的,不是抗拒與閃躲,而是使用 AI 的同時,也能夠承擔強大 AI 工具所帶來的更大責任。讓我們將工具用在對的地方,因為我們要扛起更大的責任。
|