隨著人工智能技術在自動駕駛領域不斷取得突破,高度復雜的自動駕駛技術開始推進商業化乃至普及化。
國際汽車工程師協會將廣義的自動駕駛分為六個等級:非自動(Level 0)、駕駛輔助(Level 1)、部分自動(Level 2)、有條件自動(Level 3)、高度自動(Level 4)和完全自動(Level 5)。其中,L1—L2常被稱為智能駕駛,通常指車輛配備了一些先進的駕駛輔助系統,如自適應巡航控制(ACC)、車道保持輔助(LKA)、自動緊急制動(AEB)等,但駕駛員在使用系統時必須始終控制車輛,并且對車輛的行為負責。L3級別的車輛,在特定條件下可以完全或部分實現車輛自主控制的行駛,而不需要駕駛員的持續干預,但駕駛員仍需準備隨時接管控制權。L4—L5級別的車輛,可以在大多數環境和條件下實現完全自動駕駛。處于這一最高級的無人駕駛狀態下,車輛可以沒有方向盤和踏板,完全依賴內置傳感器、軟件以及與遠程系統的配合來完成定向、變速等操作。
簡單而言,人工智能技術在汽車行業的發展目標是將司機變為乘客,進而實現完全自動化的交通系統,減少人為錯誤,提高道路安全性。同時,將人從駕駛中解放出來,獲得更多的自由時間。在這一過程中,智能駕駛系統不能異化為“數字臥底”,不能在充當司機的同時還兼職作為信息收集員,為其他商業組織提供服務或實現社會監控。在必要的情況下,智能駕駛系統還需具有“健忘的美德”,不過度上傳甚至存儲乘客私人信息,嚴格尊重和保護乘客隱私。
進一步看,一旦自動駕駛車輛高于L2級別,責任主體必然涉及人類駕駛員、自動駕駛系統和研發企業三者之間的權責分配問題。而現行法律旨在規范人類社會的行為,自動駕駛系統尚不在這一框架的涵蓋范圍之內。
如果說上述問題尚可通過規范技術、加強監管、完善法規來降低風險,那么自動駕駛技術在系統程序設定上的自主性越界往往是不可規避的。比如,在遭遇各類突發事件時,智能駕駛系統會遵循一開始的程序設定而作出“趨利避害”的選擇。這一選擇是在大數據分析下的系統性設定,尚無法基于個體性差異實現私人定制。
此外,智能駕駛系統設計不可避免地會受到算法設計團隊的主觀偏好影響,包括價值觀、文化背景和個人經驗等。這些因素可能導致智能駕駛系統在學習和決策時依賴于相對固定的模板,而忽視全球范圍內多樣化的駕駛習慣和文化背景,包括不同人群對車速、車距的個性化需求。
哲學家菲利帕·福特提出過一個著名的“電車難題”,自動駕駛領域或許會面臨更為嚴峻的“新電車難題”:自動駕駛汽車倘若遇到無力回天的情況,是應該優先保護乘客安全,還是優先保護路人安全;是應該優先保護年輕人,還是優先保護老年人?算法設計團隊在兩難之中不得不作出偏好選擇,而這樣的選擇就會被納入智能駕駛系統的學習模型之中。這意味著相關決策不可避免地帶有價值預設,難免會剝奪自然人進行個體差異化選擇的權利。
自動駕駛技術的自主性邊界,可歸結為兩大問題:其一,智能駕駛系統是否能夠僅僅滿足于接管乘客所讓渡的駕駛自主性,而不至于傷害乘客其他方面的自主性?其二,乘客是否有回收駕駛自主性,并在一些兩難的道德問題上自作主宰的權利。顯然,自動駕駛技術發展的目標在于更好地服務于人的駕乘體驗,而非使人喪失自主性,從而成為一種異化力量。
閱讀原文
作者丨崔琳菲(作者單位:華東師范大學哲學系)
來源丨解放日報
編輯丨王越月
編審丨戴琪