SUBSCRIBE
專頁簡介
新聞轉載

Social Dilemma: 人工智能,帶走了人類的信任

September 25, 2020

還記得Elon Musk與馬雲在討論「究竟是人更聰明,還是AI更聰明」,人工智能(AI)到底會否毀滅人類,最近大熱的Social Dilemma,以寫實帶出AI操縱人類,每天也在發生;原來AI不會等到電影入面的機械人軍隊才對我們的世界有所威脅。社交媒體只是序幕;背後,還有AI的問題。

先說商業,後說科技。美國科技企業全是以公開平台形式取勝。而平台的問題在於資訊量太多,於是需要AI來處理每個人最想看的是什麼。而企業需要賺錢,廣告收入的商業模式意味著「注意力」得重要,包括你的使用率engagement rate、使用時間time spent、注意力佔有率share of attention等。而AI的運作模式為不斷學習編程者給予的任務去推薦內容。該任務,對企業來說,是可以帶來收入最大化的準則 - 廣告。廣告,以「impression」、有多少人看計算。我們在Facebook、Youtube的時間愈長,使用率愈高,廣告收入愈高。

於是編程者的任務便是令我們逗留更長的時間,簡稱上癮。

人工智能AI,有多少的好,便有機會有多少的壞。你不察覺的是,我們每一個人都已經活在AI的世界了。你看Facebook的這一瞬間,是AI把我的內容推薦給你,而你的朋友不一定看到;你這一刻的注意力,正在被拍賣以計算廣告價格。你到Google搜尋任何字眼、用Google Map計算路程、蘋果推薦的App、和你聊天的Siri、疫情下探測體溫的鏡頭、Spotify聽的歌、Netflix看的戲⋯全有AI在背後助力。

很方便,方便到完全察覺不了。AI沒有情感對錯,只看工程師給AI學習的數據。麻省理工專欄寫得很好,AI只是把人類如實反映,好的、壞的。

如果不了解AI無心做成的壞事,人類便會自行走向滅忙 - AI很大程度地加速了香港的社會分裂:為什麼父母看的總是汽油彈,子女看的總是自殺案。用Facebook看新聞絕對不是好習慣,但也沒有大台的選擇,因此社會問題更加險峻。關於AI的社會作用,已有很多學術研究:

-

【 1. AI Bias & AI Manipulation 人工智能的偏見及操縱】

AI 做了一個不公平的決定,是AI Bias;AI令你產生某些想法、決定,是AI Manipulation 。而AI的角色都像幕後黑手,幕前總看不見。

AI Bias最有名的是認人樣,例如iPhone的面部解鎖。但Face ID在認非洲人種及亞洲人種,比認白種人差10-100倍;認女性也比認男性人樣差。Face ID多解鎖兩次、Facebook tag錯人看似無傷大雅,但若技術用於辨認罪犯、或是判斷病症呢?AI認出腫瘤比醫生更準確,但數據局限於數據私隱,只能與數家醫院合作。美國的醫院能有多少非洲、亞洲人數據?但如果有一天亞洲人去看病,誤診率則會比白種人更高。例如乳癌,亞洲女性的乳線比白人女性更多更為複雜。

AI Manipulation則是更可怕的事情,透過每天觀看的資訊逐少令到我們有著難以察覺的改變。這一點,Social Dilemma這套戲闡述得十分清晰。

以香港的例子,便是因為你like藍絲或黃絲page,演算法的任務就是透過你看過的、你like過、share過的,和與你相同類型 - 例如年紀、性別、地區等人看過的,然後推薦給你。於是藍絲的,Facebook推薦你喜歡永遠不會是黄絲內容,黃絲也永不會看到藍絲內容。你也許有試過把父母的Facebook轉去like很多你看的page,或是嘗試like與自己立場不同的page吧?成效不大,因為你的對手是AI,和惡意研究演算法規則、買account的假消息和內容農場。

選舉、內戰、惡意玩笑例如自殺訊息等,誰可以負上責任?對社會的傷害,又如何量化?還有假新聞,無數大小科技公司嘗試解決,一幅又一幅的對峙圖,又有誰可以說清前文後理?有甚麼數據可以供AI評論真假與否?數量之大、人類內容的多變,根本不能以科技解決。

-

【2. 黑盒子】

AI也只不過是電腦程式,是人類創造的。但原來編程者也不會知道AI實質的「思考」過程。AI比一般電腦程式更聰明的部份,是自我調節。在一大堆數據之中,透過一層又一層的處理,學習分辨數據,去達成任務的目的;例如透過十萬張不同人的照片辨認人面。而當中到底AI到底如何處理並達成決論 - 例如Face ID如何認得出忽然戴了眼鏡的你,編程者基本上無法得知。

你的電郵和WhatsApp內容是私隱,Google和Facebook他們不會「看」你的電郵和訊息。人類看不了,但AI看了,算是違反私隱了嗎?

無人駕駛的車要是因盲點撞到路人,沒有車主。是車廠的責任、無人駕駛軟件的責任、還是攝像鏡頭公司的責任?AI在中間幹了甚麼好事、認錯了甚麼,連編程者也只能推測出來。

-

【3. 現代社會失去了的信任】

最後這點,最重要。因為信任,是人與人之間、社會的基礎。馬雲說「電腦更聰明,但人類更有智慧(smart)」。是啊,人類不是一無所知的,看完上面的文字,更加懷疑AI。而人類對懷疑的本能,是啟動不信任機制。

我們一直看Facebook也暗暗感受到Facebook推太多個人化的資訊,互聯網龐大的資訊量真假難分,和身邊不同圈子的人,也會看見完全不同的資訊。

而網絡媒體帶出了更多政府、大眾媒體的黑暗面。於是我們都轉向小媒,但對小媒的信任,其實始終也帶著「半信半疑」,媒體、品牌也是步步驚心。今天看這個小媒,一個unlike,便轉向另一個小媒。我們的信任,很輕。

Social Dilemma更深層的訊息,不單單在於社交網體的邪惡面,而是分裂了的社會。因為科技的規模效應,這個分裂,各國如是。這個問題不僅僅是對民主的挑戰,而是對人類的挑戰。我們不信任政府、不信任制度、不信任資訊、不信任媒體,一個只信自己的年代,又如何能成一個社會?

-

科技的快速發展一下子帶來大規模的改變,科技公司的程式員不自知地引發了連鎖反應。今天的社會,加上了疫情,又更加混亂了。未來的社會沒有人知道會怎麼樣,但科技像火、汽車,只能改變物質生活,而不會改變人類本質。

時間沒有倒帶,與其抗衡科技、希望發生了的事沒有發生,倒不如擁抱未來。人類的本質 - What makes us human,是人類才有的情感、價值觀。片中的主角們建立了Center for Humane Technology,以各產品在用戶注意力「attention」鬥爭,作第一個為急切要解決的問題,提倡科技產品應有ethical design,不要忘卻人類的本質。

週未到了,未看Social Dilemma的值得一看;看過了的,與其等科技每天控制我們的生活,不如反客為主了解產品背後的科技故事:https://www.humanetech.com/the-social-dilemma