芥末堆芥末堆

斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?

作者:硅谷密探 發(fā)布時間:

斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?

作者:硅谷密探 發(fā)布時間:

摘要:斯坦福法學(xué)課的新嘗試:人工智能載體到底擔不擔責任?如果擔責,該如何量刑?

franck-v-740555-unsplash.jpg

圖片來源:unsplash

去年3月,亞利桑那州發(fā)生一起Uber無人駕駛汽車撞死行人事故。直到今年年3月5日,美國檢察官表示:Uber公司不用擔責,但自動駕駛汽車的后備司機Rafael Vasquez的行為應(yīng)提交警方進行進一步調(diào)查。

微信圖片_20190328152046.jpg

(事故現(xiàn),圖片來自網(wǎng)絡(luò))

然而,在2016年2月,谷歌無人駕駛汽車在加州山景城測試時,與一輛公交大巴發(fā)生碰擦,美國高速公路安全管理局(NHTSA)卻確認,用于自動駕駛的人工智能系統(tǒng)可以被視為司機。

人工智能的異軍突起將這樣的案件帶入公共視野,也為當前的法律法規(guī)、倫理規(guī)范和政策體系帶來不小的考驗:

“人工智能的載體究竟是不是法律主體?”

這樣的問題在斯坦福大學(xué)新開設(shè)的一門法律和計算機科學(xué)交叉的課程上激起了熱烈討論。如果不是法律主體,那么當人工智能載體觸犯他人利益、造成社會損失時,究竟應(yīng)該由研發(fā)者、運營者還是使用者承擔責任呢?如果是法律主體,那么又該如何為這些“人工智能”定罪量刑呢?

今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)法律、公共政策的當下,斯坦福大學(xué)的教育專家和法律人士都在做些什么努力。

AI制定政策?聯(lián)邦政府早已啟動

不要以為人工智能只是科技公司的專利。事實上,近年來美國聯(lián)邦政府已經(jīng)開始考慮使用機器學(xué)習和人工智能相關(guān)技術(shù)幫助公共政策的制定。

美國環(huán)保署(EPA)管理殺蟲劑的例子就很好體現(xiàn)了算法分析和法律相互作用的微妙形式。

過去,美國環(huán)保署對殺蟲劑的毒性檢測很大程度上取決于動物對化學(xué)藥物的反應(yīng)。但面對超過80000種待檢測化學(xué)藥物的壓力,這種方法被普遍評價為緩慢、昂貴、又不人道。   

微信圖片_20190328152054.jpg


(圖片來自網(wǎng)絡(luò),版權(quán)屬于原作者)

后來,美國環(huán)保署開始大量收集數(shù)據(jù),并引進不同計算方法來規(guī)范化學(xué)毒性檢查。它建立了一個聚合計算毒理學(xué)資源庫(Aggregated Computational Toxicology Resource),根據(jù)各種公共資源整合的關(guān)系型數(shù)據(jù)庫,用以支持數(shù)據(jù)挖掘和建模?!?strong>在算法與神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)的分析中去尋找決策新思路。

當人工智能介入法律決策,美國的殘疾索賠程序也開始發(fā)生變化。

2013年以來,為了減少工作人員審理紙質(zhì)文件的負擔,并提高案件決策一致性,美國退伍軍人事務(wù)部推出了一套計算機案件管理系統(tǒng),用于處理退伍軍人的殘疾索賠。

據(jù)報道,該系統(tǒng)可以根據(jù)索賠人(自我報告)的調(diào)查問卷,從0-100%自動評估不同退伍軍人的殘疾程度。目前這套軟件使用的是IBM Watson 的人工智能程序,從退伍軍人的電子醫(yī)療記錄中進行數(shù)據(jù)篩選。

科技巨頭,政府數(shù)字化改革的合伙人?

今年2月,特朗普簽署了一項推廣人工智能的新行政命令,再次將人工智能升級為國之重策。然而目前除了軍事部門,大部分聯(lián)邦機構(gòu)的技術(shù)更新依舊緩緩慢,高技術(shù)人才也相對緊缺。哪里高級人才多?當然要屬硅谷的科技巨頭們了。

那么,處于技術(shù)前沿的科技公司又在聯(lián)邦政府的技術(shù)升級中擔任什么角色呢?

微信圖片_20190328152059.jpg

(特朗普簽署優(yōu)先發(fā)展人工智能研究的行政命令,圖片來自網(wǎng)絡(luò))

像IBM等科技巨頭跟政府已在人工智能領(lǐng)域有多個合作項目:

美國海軍陸戰(zhàn)隊正在使用Watson的人工智能設(shè)備來診斷軍用車輛的性能,并將自然語言處理和數(shù)據(jù)科學(xué)——例如IBM的SPSS統(tǒng)計軟件和Watson Explorer——應(yīng)用于人員的組織和部署。在不久前,這些大部分計劃和日程安排都是通過電子表格完成的。

微信圖片_20190328152102.jpg

(AI正在改變海軍陸戰(zhàn)隊的部署方式,圖片來自IBM官網(wǎng))

除了技術(shù)上的支持,科技公司也會在核心科技的政策、監(jiān)管、應(yīng)用前景方面與政府交換意見。

今年2月,谷歌便向美國政府提出了一份長達34頁的《關(guān)于人工智能管理的意見》(Perspective on Issues in AI Governance),呼吁政府和社會、工業(yè)界就人工智能的可解釋性標準、公平性評估、安全考慮和責任框架等方面進行合作。

谷歌建議,要像歐洲的電子產(chǎn)品在銷售前需經(jīng)過CE認證一樣,美國政府也應(yīng)為人工智能創(chuàng)建類似的安全指標?!袄?,針對智能鎖當中的生物識別技術(shù),就應(yīng)在使用前測試它的準確度是否達標?!惫雀璧男屡d技術(shù)全球政策負責人Charina Chou表示。

盡管不少科技巨頭都與政府在技術(shù)方面的合作項目,但如果這些項目有涉及侵犯隱私、違背倫理的風險呢?

還記得谷歌和美國國防部合作的Maven項目嗎?這個去年3月被爆出后鬧得沸沸揚揚的項目,是谷歌把人工智能技術(shù)用于分析無人機鏡頭當中,幫助無人機更好地從移動或靜止圖像中自動追蹤感興趣對象,從而提高打擊精準度。這些無人機可能會參與到美國對阿富汗、巴勒斯坦、也門等國的空襲當中。

很快,超過4000名谷歌員工簽署了一份反對“Maven”項目的請愿書,他們在《紐約時報》刊登了整版廣告,并導(dǎo)致了數(shù)十名員工辭職。最終,去年6月,谷歌松口了。表示將在今年3月到期后,不再與國防部續(xù)約合作。

微信圖片_20190328153308.jpg

450多名亞馬遜員工也在近日公開致信貝索斯,希望公司停止與美國國防部和執(zhí)法系統(tǒng)就面部識別軟件 Rekognition 合作的項目。他們擔憂的地方在于,執(zhí)法部門在沒有公眾監(jiān)督、社會問責和亞馬遜限制的情況下使用這些技術(shù),很可能造成對人權(quán)的侵犯。

然而,貝索斯表示,公司將持續(xù)和國防部合作,“如果大科技公司都拒絕了國防部,那么這個國家會陷入麻煩……這是我們該做的事情,就算它不受歡迎?!?/p>

人工智能與行政結(jié)合的優(yōu)勢與擔憂

到底人工智能對政府績效的改善有哪些優(yōu)點?主要有三點難以抗拒的優(yōu)勢。

第一是效率。以較低成本完成大量重復(fù)性事件。另一方面,機器能在排除個人因素干擾的前提下進行數(shù)據(jù)分析和結(jié)果預(yù)測。決策者可能表現(xiàn)出種族偏見,可能過分地或不足地衡量某一信息的重要性,或者可能對所處情況的預(yù)設(shè)過于天真。對人為意志的排除使機器做出的決策有天然的說服力。

最重要的是,通過與大數(shù)據(jù)的連接,計算機程序能幫政府官員分析信息,并對潛在的戰(zhàn)略性行為做出反應(yīng)。

微信圖片_20190328152110.jpg

(人工智能在反洗錢領(lǐng)域的應(yīng)用探索,圖片來自網(wǎng)絡(luò))

然而,提升行政效率帶來的同時,使用機器辦公的規(guī)范性問題也被提上日程。

近期,加州最高法院大法官Mariano-Florentino Cuéllar就在其著作《人工智能與行政國家》(Artificial Intelligence and the Administrative State)中,提出了四點對決策過程中使用人工智能代理的擔憂。

微信圖片_20190328152113.jpg

(加州最高法院大法官Mariano-Florentino Cuéllar本人)

首先,政府是否該依賴計算機程序做出某項決策?大法官認為,這取決于決策目標的社會爭議性。當前,立法者常針對是否該做出某項行政決定(如實施經(jīng)濟制裁)以及該決定會在不同層面導(dǎo)致的后果進行大量的辯論,人工智能將如何統(tǒng)籌政治博弈中的各方利益?這將是個不小的挑戰(zhàn)。

第二點擔憂和爭議來自人工智能所謂的“機械理性”。由于在由算法主導(dǎo)的行政決策占越來越重要的位置,但機器減少人為因素干擾的同時,是否應(yīng)該反思,那些所謂的“偏見”和“情感因素”是否都沒有價值?一些可能被機器排除的“偏見”例如對弱者的同情,或許也同樣值得關(guān)注。

微信圖片_20190328153528.jpg

       (機器就一定公平嗎?圖片來自網(wǎng)絡(luò))

第三,網(wǎng)絡(luò)安全風險及其他不利影響。當行政越來越依賴數(shù)據(jù)收集和計算機程序,這可能帶來更高的效率,也同時意味著受網(wǎng)絡(luò)安全威脅的影響更大。    

最后,如何向公眾解釋決策過程將遇到困難。試想一下,民主治理的內(nèi)涵是通過對話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機會。除非人工智能的決策機制能依賴相對簡單透明的結(jié)構(gòu),否則向公眾提供決策如何產(chǎn)生的理由時,決策機構(gòu)將會遇到相當?shù)睦щy。

斯坦福法律課上的頭腦風暴

面對這些擔憂,身處硅谷中心的斯坦福大學(xué)已開始促成從學(xué)術(shù)研究到業(yè)界層面的合作:從2019年起,斯坦福大學(xué)政策研究中心新開設(shè)一門法律和計算機科學(xué)交叉的課程“算法管理:在規(guī)制型國家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)

微信圖片_20190328153627.jpg

(新開設(shè)算法管理課,圖片自斯坦福法學(xué)院官網(wǎng))

這門課程由斯坦福法學(xué)院教授David Freeman Engstrom、Daniel E. Ho,和加州最高法院大法官Mariano-Florentino Cuéllar共同教授,并邀請了25位律師、計算機科學(xué)家和算法工程師來和大家共同探討政府機構(gòu)的技術(shù)研發(fā)和應(yīng)用。

微信圖片_20190328152125.jpg

(從左至右:斯坦福法學(xué)院教授Daniel E. Ho,David Freeman Engstrom和加州最高法院大法官Mariano-Florentino Cuéllar)

  “我們現(xiàn)在面臨著專業(yè)技術(shù)和認知上的不匹配。一方面在法律判決中我們需要法律機構(gòu)能解釋做出這樣決策的原因,另一方面,人工智能和機器學(xué)習的工作機制尚未完全透明,”斯坦福法學(xué)院教授David Freeman Engstrom說道。

課堂的學(xué)生來自計算機科學(xué)、法律、政治、哲學(xué)等多個專業(yè)背景,需要通過團隊合作,完成三部分任務(wù)。

首先,團隊對100個最重要的聯(lián)邦機構(gòu)進行調(diào)查。當發(fā)現(xiàn)有算法參與決策的例子時,學(xué)生們開始測評這項技術(shù)具體歸屬哪一類:是屬于人工智能,還是機器學(xué)習,還是一些其他的基礎(chǔ)技術(shù)?

第二步,學(xué)生集體評估近期或中期政府機構(gòu)中最可能部署人工智能的環(huán)節(jié)。

最后,轉(zhuǎn)向規(guī)范性問題探討:思考使用人工智能執(zhí)行監(jiān)管任務(wù)帶來的法律、政策分析和哲學(xué)層面的挑戰(zhàn)。例如,如何解決諸多程序性權(quán)利面臨被機器行政架空的威脅等。

微信圖片_20190328152129.jpg

(圖片來自斯坦福官網(wǎng))

課程結(jié)束后,學(xué)生將完成一份報告,探討行政機構(gòu)在不同層面該如何應(yīng)用人工智能技術(shù)。該報告將提交到無黨派獨立機構(gòu)美國行政會議(Administrative Conference of the United States),并有望影響未來行政機構(gòu)的政策。

本文轉(zhuǎn)自微信公眾號“硅谷密探”,作者Linyi。文章為作者獨立觀點,不代表芥末堆立場,轉(zhuǎn)載請聯(lián)系原作者。

1、本文是 芥末堆網(wǎng)轉(zhuǎn)載文章,原文:硅谷密探;
2、芥末堆不接受通過公關(guān)費、車馬費等任何形式發(fā)布失實文章,只呈現(xiàn)有價值的內(nèi)容給讀者;
3、如果你也從事教育,并希望被芥末堆報道,請您 填寫信息告訴我們。
來源:硅谷密探
芥末堆商務(wù)合作:王老師 18710003484
  • 斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?分享二維碼