第3章 自由:數據霸...
關燈
小
中
大
鄧肯國王,還是聽從自己的良心放過他?《傲慢與偏見》中的伊麗莎白則問:是嫁給柯林斯先生,還是達西先生?基督教和伊斯蘭教同樣重視這場決策大戲,認為究竟是得到永恒的救贖還是永世的詛咒,取決于能否做出正确的選擇。
但随着人類越來越依賴人工智能來做決定,這種對生命的觀點會發生怎樣的改變?現在我們隻是信賴由網飛來推薦電影,由谷歌地圖來決定該往左還是該往右。
然而,一旦我們開始交由人工智能來決定要讀什麼專業、在哪裡工作、和誰結婚,人類的生命就不再是一場決策大戲了。
民主選舉、自由市場,這些機制将會失去意義,而且大多數宗教和藝術品也是如此。
想象一下,安娜·卡列尼娜居然拿出智能手機,問問臉譜網算法,她是該繼續和卡列甯長相厮守,還是和時髦的伏倫斯基伯爵私奔?又或者你最愛的任何一出莎士比亞戲劇,裡面的角色居然一遇到重要決定就先請教谷歌算法?哈姆雷特和麥克白的生活大概确實能過得更舒适,但那究竟算是什麼生活?我們有什麼理論模式,能把這種生活說出個道理? 随着權威從人類轉向算法,世界可能不再是一個自主的、人們努力做出正确選擇的劇場。
相反,我們可能會認為整個宇宙就是一個數據流,每個有機體不過是一套生化算法。
至于人類在這個宇宙中的任務,則是打造一套無所不包的數據處理系統,然後與系統融為一體。
其實,我們現在就已經像一個又一個小小的芯片,裝在一個大到沒有人真正理解的數據處理系統之中。
以我本人為例,我每天都要通過電子郵件、推文和各種文章吸收無數的數據,處理這些數據之後,又要通過更多的電子郵件、推文和文章,傳回新的資料。
我真的不知道這世界上一切的背後有什麼宏觀的架構,我所産出的數據将如何與其他幾十億人或計算機産生的數據連接。
很遺憾,我沒有時間找出答案,光是回信就已經讓我焦頭爛額。
汽車也懂哲學 有人可能會提出異議,認為重要的決策通常涉及道德因素,而算法不懂道德,所以我們永遠不會把重要的決定交給算法去處理。
然而,就算是在道德方面,也沒有理由認為算法的表現會比一般人差。
今天,智能手機和自動駕駛汽車等設備已經接手一些原本專屬于人類的決定,也開始應對一些早已困擾人類幾千年的道德問題。
舉例來說,假設有兩個小孩追球,忽然沖到一輛自動駕駛汽車的前方。
開着這台車的算法立刻完成運算,得出結論:要避免撞到兩個小孩的唯一方法是轉進逆向車道,但這就可能撞上迎面而來的卡車,而根據運算結果,這樣一來有70%的可能會讓在後座睡得正酣的車主一命歸天。
算法該怎麼做決定? 像這樣的“電車難題”(trolleyproblem),哲學家其實已經讨論幾千年了(之所以叫“電車難題”,是因為現代哲學讨論時的基本範例是在鐵軌上跑的電車,而不是自動駕駛汽車)。
但讨論了幾千年,卻對人類實際行為根本沒産生什麼影響;遇到緊急狀況,什麼哲學全都被抛在腦後,一切都由情緒和直覺來處理。
1970年12月,有一場社科史上相當令人不悅的實驗,那是在普林斯頓神學院,實驗對象是一群受訓要成為長老教會牧師的學生。
當時,實驗人員叫所有學生立刻趕往遠處的一個演講廳,就“好撒瑪利亞人”(GoodSamaritan)這個寓言發表演說。
這個寓言講的是有個猶太人要從耶路撒冷前往耶利哥,但遭到強盜搶劫和毆打,被丢在路邊等死。
過了一會兒,有一個祭司和一個利未人(利未(标準希伯來語Levi,Tiberian希伯來語Lēw?)是以色列利未支派的祖先·他是雅各和利亞的第三個兒子。
)經過并看到了他,但兩人都未停下腳步。
後來有一個撒瑪利亞人(猶太教相當鄙視這個教派)路過,立刻停下來照顧他,救了他的命。
這個寓言告訴我們,人是好是壞,應該由實際行為來判斷,而不是由所屬宗教來判斷。
這些年輕的神學院學生一心想趕往演講廳,路上想的都是怎樣才能解釋好撒瑪利亞人的道德寓意。
然而,實驗人員在路上安排了一個人,穿得破破爛爛地坐在門口,低着頭,閉着眼睛。
每個沒起半點兒疑心的學生經過時,這個“受害者”都會咳嗽并發出痛苦的呻吟聲。
但絕大多數學生完全沒有停下腳步來關心一下他,更别說提供任何幫助了。
要趕去演講廳所造成的情緒壓力,已經壓過了他們想幫助受難陌生人的道德責任。
還有其他許許多多情況,都是人類的情緒戰勝了哲學理論。
因此,如果要講全世界的倫理和哲學史,會是個理想很美好但現實很殘酷的沮喪故事。
畢竟,有多少基督徒真能把臉轉過去,有多少佛教徒真能超脫利己的執念,又有多少猶太人真能愛鄰如己?我們所表現出的,不過就是自然選擇把智人塑造成的樣子。
一如所有的哺乳動物,智人也是靠着情緒來快速做出各種關乎生死的決定。
從幾百萬個祖先那裡,我們繼承了他們的憤怒、恐懼和欲望,而這些祖先每一個都通過了最嚴格的自然選擇質量管控測試。
但不幸的是,适合在100萬年前的非洲大草原上生存和繁殖的特點,不見得會讓你在21世紀的高速公路上是個負責的人。
每年都有超過100萬人因為司機分心、憤怒或焦慮而死于交通意外。
我們當然可以派出所有哲學家、先知和神職人員好好給這些司機上上倫理課,但隻要一回到路上,他們又會回到哺乳動物的情緒和草原本能。
正因為如此,神學院的學生才無視受苦的路人,司機才會在緊急狀況下撞倒無辜的行人。
從神學院到真實生活之間的分離,正是倫理學最大的實際問題之一。
康德、約翰·穆勒(JohnStuartMill)和約翰·羅爾斯(JohnRawls)當然能夠舒舒服服地坐在大學講堂裡,花上好幾天大談倫理道德的理論問題;但在司機發現危急的瞬間,急都急壞了,哪還有時間管這些人有什麼結論。
或許對于邁克爾·舒馬赫(MichaelSchumacher,現代最偉大的一級方程式賽車車手之一)來說,還真能邊賽車邊思考哲學問題,但我們大多數人都不是舒馬赫。
然而,計算機算法并不是由自然選擇塑造而成,而且既沒情緒也無直覺。
所以到了危急的瞬間,它們繼續遵守倫理道德的能力就比人類高出許多:隻要我們想辦法把倫理道德用精确的數字和統計編寫成程序就行。
如果我們教康德、穆勒和羅爾斯(約翰·羅爾斯(1921年2月21日-2002年11月24日),美國政治哲學家、倫理學家、普林斯頓大學哲學博士,哈佛大學教授,寫過《正義論》、《政治自由主義》、《作為公平的正義:正義新論》、《萬民法》等名著,是20世紀英語世界最著名的政治哲學家之一。
)怎麼寫程序,他們就能在舒舒服服的研究室裡為自動駕駛汽車寫出程序,也肯定能讓每輛自動駕駛汽車在路上都遵守所有倫理規範。
這就像讓舒馬赫和康德合二為一,擔任每輛車的駕駛員一樣。
這樣一來,隻要程序裡規定自動駕駛汽車必須停車幫助遭遇危難的陌生人,即便是赴湯蹈火,它都将在所不辭。
(當然,如果你針對這些湯湯火火另加個例外條款,情況就不一樣了。
)同樣,如果自動駕駛汽車的程序原本就寫着要轉進逆向車道救那兩個小孩,你絕對可以用生命打賭,它一定會這樣做。
也就是說,設計自動駕駛汽車的時候,豐田或特斯拉就是把過去道德哲學上的理論問題轉化成了實際的工程問題。
當然,哲學算法永遠不會是完美的。
錯誤還是會發生,有人會受傷,有人會死亡,更有随之而來麻煩不已的訴訟。
(曆史上第一次,可能會有哲學家因其所提出的理論造成不幸結果而被告上法庭,因為這也是曆史上第一次能夠證明哲學概念與現實生活中的事件有直接因果關系。
)然而,如果隻是要取代人類駕駛員,算法并不需要做到完美無缺,隻要比人類更好就行了。
鑒于人類駕駛員每年造成超過100萬人因車禍死亡,算法要表現得比人類好并不是什麼太難的事。
你會希望旁邊那輛車的駕駛員是誰?是某個喝醉的小鬼,還是舒馬赫和康德的合體? 這套邏輯不僅适用于駕駛,也适用于其他許多情況,比如申請工作。
在21世紀,已經有越來越多的時候是由算法決定是否聘用某人。
當然,我們不能讓機器來制定相關倫理标準,這件事還是得由人類自己來完成。
但隻要确立了職場的倫理标準(比如不得歧視黑人或女性),接下來就可以用機器來實施和維護這項标準了。
某位人事經理可能心知肚明歧視黑人和女性有違倫理道德,但遇到某個黑人女性來申請工作時,還是下意識産生了歧視而不予錄用。
如果讓計算機來評估求職者,并在編寫程序之初就設定要完全忽略種族和性别因素,計算機一定會乖乖跳過這些因素,因為它并沒有潛意識可言。
當然,要寫這種求職者評估程序并不容易,而且存在一種危險:工程師可能會不經意間把自己的潛在偏見寫進軟件裡。
不過發現這種錯誤後要清除也并非難事,至少比清除人類種族歧視和偏見的難度要低得多。
我們已經看到,人工智能興起之後,可能會把大多數人類擠出就業市場,比如司機和交通警察(沒了魯莽的人類駕駛員,隻剩下乖乖開車的算法,交通警察也就無用武之地了)。
然而,對哲學家來說可能會出現一些新的工作機會,他們的專業技能在過去沒什麼市場價值,但未來可能會突然變得相當吃香。
所以,如果想讀個未來能找到好工作的專業,或許可以考慮一下哲學領域。
當然,哲學家對于什麼是“對的行為”很少有共識。
“電車難題”之類問題的答案,很少能讓所有哲學家都滿意,例如穆勒這樣的結果論者(consequentialist,以結果判斷行為),他的想法一定會不同于康德這樣的義務論者(deontologist,以絕對的規則來判斷行為)。
特斯拉不過是要做一輛車,真的要在這種棘手的問題上選擇一方嗎? 或許特斯拉隻要把燙手山芋丢給市場就行,
但随着人類越來越依賴人工智能來做決定,這種對生命的觀點會發生怎樣的改變?現在我們隻是信賴由網飛來推薦電影,由谷歌地圖來決定該往左還是該往右。
然而,一旦我們開始交由人工智能來決定要讀什麼專業、在哪裡工作、和誰結婚,人類的生命就不再是一場決策大戲了。
民主選舉、自由市場,這些機制将會失去意義,而且大多數宗教和藝術品也是如此。
想象一下,安娜·卡列尼娜居然拿出智能手機,問問臉譜網算法,她是該繼續和卡列甯長相厮守,還是和時髦的伏倫斯基伯爵私奔?又或者你最愛的任何一出莎士比亞戲劇,裡面的角色居然一遇到重要決定就先請教谷歌算法?哈姆雷特和麥克白的生活大概确實能過得更舒适,但那究竟算是什麼生活?我們有什麼理論模式,能把這種生活說出個道理? 随着權威從人類轉向算法,世界可能不再是一個自主的、人們努力做出正确選擇的劇場。
相反,我們可能會認為整個宇宙就是一個數據流,每個有機體不過是一套生化算法。
至于人類在這個宇宙中的任務,則是打造一套無所不包的數據處理系統,然後與系統融為一體。
其實,我們現在就已經像一個又一個小小的芯片,裝在一個大到沒有人真正理解的數據處理系統之中。
以我本人為例,我每天都要通過電子郵件、推文和各種文章吸收無數的數據,處理這些數據之後,又要通過更多的電子郵件、推文和文章,傳回新的資料。
我真的不知道這世界上一切的背後有什麼宏觀的架構,我所産出的數據将如何與其他幾十億人或計算機産生的數據連接。
很遺憾,我沒有時間找出答案,光是回信就已經讓我焦頭爛額。
汽車也懂哲學 有人可能會提出異議,認為重要的決策通常涉及道德因素,而算法不懂道德,所以我們永遠不會把重要的決定交給算法去處理。
然而,就算是在道德方面,也沒有理由認為算法的表現會比一般人差。
今天,智能手機和自動駕駛汽車等設備已經接手一些原本專屬于人類的決定,也開始應對一些早已困擾人類幾千年的道德問題。
舉例來說,假設有兩個小孩追球,忽然沖到一輛自動駕駛汽車的前方。
開着這台車的算法立刻完成運算,得出結論:要避免撞到兩個小孩的唯一方法是轉進逆向車道,但這就可能撞上迎面而來的卡車,而根據運算結果,這樣一來有70%的可能會讓在後座睡得正酣的車主一命歸天。
算法該怎麼做決定? 像這樣的“電車難題”(trolleyproblem),哲學家其實已經讨論幾千年了(之所以叫“電車難題”,是因為現代哲學讨論時的基本範例是在鐵軌上跑的電車,而不是自動駕駛汽車)。
但讨論了幾千年,卻對人類實際行為根本沒産生什麼影響;遇到緊急狀況,什麼哲學全都被抛在腦後,一切都由情緒和直覺來處理。
1970年12月,有一場社科史上相當令人不悅的實驗,那是在普林斯頓神學院,實驗對象是一群受訓要成為長老教會牧師的學生。
當時,實驗人員叫所有學生立刻趕往遠處的一個演講廳,就“好撒瑪利亞人”(GoodSamaritan)這個寓言發表演說。
這個寓言講的是有個猶太人要從耶路撒冷前往耶利哥,但遭到強盜搶劫和毆打,被丢在路邊等死。
過了一會兒,有一個祭司和一個利未人(利未(标準希伯來語Levi,Tiberian希伯來語Lēw?)是以色列利未支派的祖先·他是雅各和利亞的第三個兒子。
)經過并看到了他,但兩人都未停下腳步。
後來有一個撒瑪利亞人(猶太教相當鄙視這個教派)路過,立刻停下來照顧他,救了他的命。
這個寓言告訴我們,人是好是壞,應該由實際行為來判斷,而不是由所屬宗教來判斷。
這些年輕的神學院學生一心想趕往演講廳,路上想的都是怎樣才能解釋好撒瑪利亞人的道德寓意。
然而,實驗人員在路上安排了一個人,穿得破破爛爛地坐在門口,低着頭,閉着眼睛。
每個沒起半點兒疑心的學生經過時,這個“受害者”都會咳嗽并發出痛苦的呻吟聲。
但絕大多數學生完全沒有停下腳步來關心一下他,更别說提供任何幫助了。
要趕去演講廳所造成的情緒壓力,已經壓過了他們想幫助受難陌生人的道德責任。
還有其他許許多多情況,都是人類的情緒戰勝了哲學理論。
因此,如果要講全世界的倫理和哲學史,會是個理想很美好但現實很殘酷的沮喪故事。
畢竟,有多少基督徒真能把臉轉過去,有多少佛教徒真能超脫利己的執念,又有多少猶太人真能愛鄰如己?我們所表現出的,不過就是自然選擇把智人塑造成的樣子。
一如所有的哺乳動物,智人也是靠着情緒來快速做出各種關乎生死的決定。
從幾百萬個祖先那裡,我們繼承了他們的憤怒、恐懼和欲望,而這些祖先每一個都通過了最嚴格的自然選擇質量管控測試。
但不幸的是,适合在100萬年前的非洲大草原上生存和繁殖的特點,不見得會讓你在21世紀的高速公路上是個負責的人。
每年都有超過100萬人因為司機分心、憤怒或焦慮而死于交通意外。
我們當然可以派出所有哲學家、先知和神職人員好好給這些司機上上倫理課,但隻要一回到路上,他們又會回到哺乳動物的情緒和草原本能。
正因為如此,神學院的學生才無視受苦的路人,司機才會在緊急狀況下撞倒無辜的行人。
從神學院到真實生活之間的分離,正是倫理學最大的實際問題之一。
康德、約翰·穆勒(JohnStuartMill)和約翰·羅爾斯(JohnRawls)當然能夠舒舒服服地坐在大學講堂裡,花上好幾天大談倫理道德的理論問題;但在司機發現危急的瞬間,急都急壞了,哪還有時間管這些人有什麼結論。
或許對于邁克爾·舒馬赫(MichaelSchumacher,現代最偉大的一級方程式賽車車手之一)來說,還真能邊賽車邊思考哲學問題,但我們大多數人都不是舒馬赫。
然而,計算機算法并不是由自然選擇塑造而成,而且既沒情緒也無直覺。
所以到了危急的瞬間,它們繼續遵守倫理道德的能力就比人類高出許多:隻要我們想辦法把倫理道德用精确的數字和統計編寫成程序就行。
如果我們教康德、穆勒和羅爾斯(約翰·羅爾斯(1921年2月21日-2002年11月24日),美國政治哲學家、倫理學家、普林斯頓大學哲學博士,哈佛大學教授,寫過《正義論》、《政治自由主義》、《作為公平的正義:正義新論》、《萬民法》等名著,是20世紀英語世界最著名的政治哲學家之一。
)怎麼寫程序,他們就能在舒舒服服的研究室裡為自動駕駛汽車寫出程序,也肯定能讓每輛自動駕駛汽車在路上都遵守所有倫理規範。
這就像讓舒馬赫和康德合二為一,擔任每輛車的駕駛員一樣。
這樣一來,隻要程序裡規定自動駕駛汽車必須停車幫助遭遇危難的陌生人,即便是赴湯蹈火,它都将在所不辭。
(當然,如果你針對這些湯湯火火另加個例外條款,情況就不一樣了。
)同樣,如果自動駕駛汽車的程序原本就寫着要轉進逆向車道救那兩個小孩,你絕對可以用生命打賭,它一定會這樣做。
也就是說,設計自動駕駛汽車的時候,豐田或特斯拉就是把過去道德哲學上的理論問題轉化成了實際的工程問題。
當然,哲學算法永遠不會是完美的。
錯誤還是會發生,有人會受傷,有人會死亡,更有随之而來麻煩不已的訴訟。
(曆史上第一次,可能會有哲學家因其所提出的理論造成不幸結果而被告上法庭,因為這也是曆史上第一次能夠證明哲學概念與現實生活中的事件有直接因果關系。
)然而,如果隻是要取代人類駕駛員,算法并不需要做到完美無缺,隻要比人類更好就行了。
鑒于人類駕駛員每年造成超過100萬人因車禍死亡,算法要表現得比人類好并不是什麼太難的事。
你會希望旁邊那輛車的駕駛員是誰?是某個喝醉的小鬼,還是舒馬赫和康德的合體? 這套邏輯不僅适用于駕駛,也适用于其他許多情況,比如申請工作。
在21世紀,已經有越來越多的時候是由算法決定是否聘用某人。
當然,我們不能讓機器來制定相關倫理标準,這件事還是得由人類自己來完成。
但隻要确立了職場的倫理标準(比如不得歧視黑人或女性),接下來就可以用機器來實施和維護這項标準了。
某位人事經理可能心知肚明歧視黑人和女性有違倫理道德,但遇到某個黑人女性來申請工作時,還是下意識産生了歧視而不予錄用。
如果讓計算機來評估求職者,并在編寫程序之初就設定要完全忽略種族和性别因素,計算機一定會乖乖跳過這些因素,因為它并沒有潛意識可言。
當然,要寫這種求職者評估程序并不容易,而且存在一種危險:工程師可能會不經意間把自己的潛在偏見寫進軟件裡。
不過發現這種錯誤後要清除也并非難事,至少比清除人類種族歧視和偏見的難度要低得多。
我們已經看到,人工智能興起之後,可能會把大多數人類擠出就業市場,比如司機和交通警察(沒了魯莽的人類駕駛員,隻剩下乖乖開車的算法,交通警察也就無用武之地了)。
然而,對哲學家來說可能會出現一些新的工作機會,他們的專業技能在過去沒什麼市場價值,但未來可能會突然變得相當吃香。
所以,如果想讀個未來能找到好工作的專業,或許可以考慮一下哲學領域。
當然,哲學家對于什麼是“對的行為”很少有共識。
“電車難題”之類問題的答案,很少能讓所有哲學家都滿意,例如穆勒這樣的結果論者(consequentialist,以結果判斷行為),他的想法一定會不同于康德這樣的義務論者(deontologist,以絕對的規則來判斷行為)。
特斯拉不過是要做一輛車,真的要在這種棘手的問題上選擇一方嗎? 或許特斯拉隻要把燙手山芋丢給市場就行,