ChatGPT與產(chǎn)業(yè)融合應用的合規與監管
當前,以ChatGPT為代表的生成式人工智能已具備學(xué)習和內容輸出能力,這使得人工智能在眾多產(chǎn)業(yè)領(lǐng)域開(kāi)始發(fā)揮重要賦能作用。在今年1月9日至12日舉辦的國際消費電子展上,大眾汽車(chē)宣布將在旗下的ID系列車(chē)型上搭載自然語(yǔ)言處理模型ChatGPT。大眾汽車(chē)表示,搭載ChatGPT的語(yǔ)音助手IDA(一款專(zhuān)業(yè)的靜態(tài)反編譯軟件)的人工智能App,不僅可以處理車(chē)輛的特定信息以滿(mǎn)足用戶(hù)更具體的要求,如控制車(chē)內娛樂(lè )、導航和空調系統,還可以幫助用戶(hù)隨時(shí)上線(xiàn)使用ChatGPT的人工智能數據庫,調取有用信息。
生成式人工智能在實(shí)體產(chǎn)業(yè)領(lǐng)域的融合應用是一把“雙刃劍”。一方面,推動(dòng)智能技術(shù)縱深發(fā)展,同時(shí)也給法律和監管帶來(lái)挑戰;另一方面,將促進(jìn)涉生成式人工智能法律不斷進(jìn)步和完善,保證技術(shù)向善發(fā)展。目前,生成式人工智能的監管具有一定難度:其一,生成式人工智能技術(shù)快速迭代,需要及時(shí)應對風(fēng)險。其二,生成式人工智能通過(guò)海量數據投喂,其參數具有千億級別規模,這決定了其底層構架的復雜性和難解釋性,需要監管機構引入技術(shù)監管模式,精準甄別風(fēng)險。其三,生成式人工智能的應用具有跨學(xué)科、跨行業(yè)、跨領(lǐng)域的特點(diǎn),這增加了監管的難度,需要培訓或者引入多學(xué)科專(zhuān)業(yè)人才,全面判斷風(fēng)險。
大眾汽車(chē)對ChatGPT的應用,給數字技術(shù)領(lǐng)域監管提出了更具體的法律問(wèn)題。
此次搭載人工智能App的第一個(gè)風(fēng)險是數據風(fēng)險。用戶(hù)在注冊App時(shí)通常被要求填寫(xiě)眾多個(gè)人信息,其車(chē)輛數據如行車(chē)軌跡、車(chē)輛性能等信息也將被收集,這些獲取信息和數據的行為如果未經(jīng)授權可能侵害用戶(hù)隱私。當然,搭載ChatGPT前,大眾汽車(chē)也注意到了可能出現的數據風(fēng)險,并擬借助技術(shù)提供方賽輪思公司的幫助推行技術(shù)合規,以保護用戶(hù)的隱私及其他信息。首先,用戶(hù)在使用ChatGPT時(shí)不需要注冊賬戶(hù)或安裝新的應用程序,僅通過(guò)與汽車(chē)搭載的語(yǔ)音助手對話(huà)即可使用,這可以降低操作難度、節省時(shí)間,且無(wú)需用戶(hù)提供個(gè)人信息。其次,賽輪思公司在設計和開(kāi)發(fā)語(yǔ)音助手時(shí),采取數據隔離措施,確保ChatGPT無(wú)法訪(fǎng)問(wèn)或存儲任何與車(chē)輛相關(guān)的數據。最后,按照大眾汽車(chē)的說(shuō)法,用戶(hù)與語(yǔ)音助手的對話(huà)會(huì )“立即刪除,以確保最高級別的數據保護”,可以保證用戶(hù)信息不被存儲或者遭到非法利用,這有利于保護用戶(hù)隱私。
搭載人工智能App的第二個(gè)風(fēng)險是決策風(fēng)險。自然語(yǔ)言模型本質(zhì)上是對訓練數據的再現和重組,如果用戶(hù)的提問(wèn)超出其訓練數據的內容范圍,ChatGPT不知道如何回答時(shí),就會(huì )生成虛假信息,誤導用戶(hù)決策。隨著(zhù)ChatGPT自主學(xué)習能力的不斷增強,其可能生成超出設計者預期的內容,并引導用戶(hù)作出有風(fēng)險的決策。同時(shí),由于訓練數據自身的偏向性可能產(chǎn)生歧視性?xún)热?。生成式人工智能還可能會(huì )遭受黑客攻擊,導致語(yǔ)音助手失靈或者輸出有風(fēng)險的內容,給用戶(hù)帶來(lái)?yè)p害。要降低基于ChatGPT自身技術(shù)帶來(lái)的上述風(fēng)險需要各方主體共同努力,形成多元協(xié)同合規和監管體系。其一,開(kāi)發(fā)公司在訓練生成式人工智能時(shí),應進(jìn)行培訓數據評估、算法模型評估和生成式內容評估,并向主管部門(mén)提交安全評估報告。一是,識別數據的類(lèi)型、規模和分布等基本信息,要重點(diǎn)關(guān)注可能影響國家安全、公共利益或個(gè)人和組織合法權益的數據安全問(wèn)題和風(fēng)險。二是,識別算法歧視、算法缺陷(安全漏洞)和算法攻擊(后門(mén)攻擊/數據中毒)等問(wèn)題。三是,從意識形態(tài)安全、虛假信息管理、個(gè)人權利保護、市場(chǎng)公平競爭和知識產(chǎn)權保護等方面對生成內容進(jìn)行評估。四是,在保護其核心技術(shù)的前提下公開(kāi)技術(shù)的底層邏輯和算法程序,用以對外提示風(fēng)險,并作為其未來(lái)進(jìn)行責任承擔的依據。其二,像這樣的技術(shù)應用公司應進(jìn)行充分的實(shí)驗以發(fā)掘可能出現的所有風(fēng)險,評估生成式人工智能在提供服務(wù)時(shí)可能對用戶(hù)、社會(huì )及應用者造成的安全風(fēng)險,并將這些風(fēng)險明確列舉,以通俗易懂的書(shū)面方式向用戶(hù)告知,并向用戶(hù)解釋生成式人工智能的基本原理、目的意圖和主要運行機制,形成記錄文檔,并及時(shí)更新。設計針對生成式人工智能提供服務(wù)的安全應急處置機制,使人工智能出現安全意外時(shí)服務(wù)可被人工中斷。應在服務(wù)中采取措施保護模型參數等數據,防止黑客攻擊。設置便捷有效的用戶(hù)申訴和公共投訴、舉報入口,并及時(shí)響應、及時(shí)處理、及時(shí)反饋關(guān)于生成式人工智能公平性、決策透明性等方面的問(wèn)題,并如實(shí)記錄。其三,建立由人工智能主管部門(mén)、產(chǎn)業(yè)協(xié)會(huì )、民間團體、學(xué)術(shù)研究機構和公民代表組成人工智能應用監管委員會(huì ),各利益相關(guān)者與技術(shù)開(kāi)發(fā)公司和使用公司共同制定符合技術(shù)現實(shí)又具有前瞻性及關(guān)照各方利益的監管標準和政策,確保監管的及時(shí)性、全面性和公正性。
搭載人工智能App的第三個(gè)風(fēng)險是法律責任分配風(fēng)險。當人工智能導致數據泄露、人員傷亡、財產(chǎn)損失等事件時(shí),其致人損害的責任承擔突破了傳統的“行為—責任”邏輯,對既有侵權制度提出挑戰,其原因在于,一方面,人工智能缺乏法律主體地位,難以將其“行為”引發(fā)的損害后果歸于它;另一方面,人工智能決策可能會(huì )超出技術(shù)開(kāi)發(fā)公司和使用公司當初的預期,難以將其“行為”引發(fā)的損害后果歸于技術(shù)開(kāi)發(fā)公司和使用公司。因此,應在傳統侵權責任之外確立新的損害結果責任分配規則,且通過(guò)建立人工智能責任保險制度等,以救濟受害者。
(來(lái)源:民主與法制時(shí)報)