電腦經由自己學習達成目標,但中間過程人類無法理解,甚至是寫出程式碼的工程師也不明白。最嚴重的一點,也是我特別想和其他人類互相提醒的是——AI的運作是個黑盒子,遠遠超越人類的思考,但是,AI一開始的指令是由人類所下的,而人並不是神,不會有完美不出錯的指令。下指令的是不完美的人類,執行者卻是人類無法掌控的、智能超強的AI,這會發生什麼事?
我們可從歷史上借鏡。印刷術雖未具備自己創造出新內容的能力,但它劃時代的連結功能,已能創造出具有殺傷力的新現實。歷史上最惡名昭彰的獵巫行動,就是從一部荒誕不實卻廣為流傳的暢銷書所助燃推動。「獵巫的行動,顯示一旦創造了一個資訊圈,可能會帶出怎樣的陰暗面⋯⋯在這樣的資訊市場裡,比較看重的可能是讓人感到義憤填膺,而不是要揭露真理真相。」
如今,新科技更強化了這股憤慨。
「經過拿數百萬人做實驗、不斷嘗試錯誤,YouTube 演算法發現了臉書演算法也學到的那套模式:激起人們的憤慨怒火,就能提升參與度。於是,YouTube 演算法開始向數百萬觀眾推薦各種讓人驚駭憤慨的陰謀論⋯⋯等到2016年,YouTube 每天的總觀看時數來到了十億個小時。⋯⋯像這樣經過幾個月的強化學習,演算法就讓許多 YouTuber 都成了大咖酸民。」
這便是為什麼我們會感覺網路上酸民那麼多,以及上網時間愈久愈焦慮的原因。其根源來自商業考量,並不是使用者福祉。如前所述——人類有私心且偏狹,而 AI 使命必達。由此我們便不該感到意外,國際政局、戰爭對立,現今都更容易操弄。緬甸羅興亞人的不幸遭遇,很大程度便來自網路不實言論的煽風點火,這部分,Facebook難辭其咎。
新科技使用很方便,但它的為害,我們同樣應該正視,並重新思考我們的言行和選擇。
沒有留言:
發佈留言