中國消費者報北京訊(記者桑雪騏)當下,人工智能已經(jīng)滲透到消費者生活的方方面面。記者9月10日從北京市互聯(lián)網(wǎng)法院獲悉,該法院審理案件情況分析顯示,涉人工智能案件增長較快,糾紛類型也日益復雜化和多元化,對于此類案件的審理存在三大挑戰(zhàn)。
一是技術應用復雜導致事實查明難。案件往往涉及對人工智能的生成過程、算法模型以及數(shù)據(jù)來源等進行司法審查,技術門檻高,事實查明難度大,對司法專業(yè)性要求高。例如在北京互聯(lián)網(wǎng)法院審理的“人工智能標識案”中,平臺運用算法工具將用戶發(fā)布內(nèi)容判定為未標識的AI生成內(nèi)容從而引發(fā)糾紛,該案中平臺既是算法工具掌控方又是結果判斷方,法院判斷其平臺審查及處理結果是否有合理依據(jù)時需要探明其算法決策邏輯,平臺需圍繞案件爭議事實以可理解的方式舉證或說明算法運行機制、對可能出現(xiàn)的誤判是否采取了合理的救濟措施。
二是規(guī)則適配不足導致法律適用難。人工智能領域規(guī)范性法律文件制定存在一定的滯后性,難以完全適應技術快速發(fā)展的新形勢,相關案件的司法裁判常常無法規(guī)可依、無先例可循。例如在著作權領域,涉及AI文生圖、文生視頻、虛擬數(shù)字人等新型權益客體是否構成著作權法意義的作品,其著作權應歸屬于AI服務提供者還是使用者;大模型訓練對作品的利用在著作權方面如何定性等問題。在人格權領域,涉及自然人的人格權保護范圍是否及于AI合成的虛擬形象、虛擬聲音;以人臉信息作為模型應用深度合成技術是否侵犯個人信息等問題。這些具體爭議需要法官充分發(fā)揮司法智慧,綜合法律原則、政策導向、價值衡量等進行合理裁判。
三是主體角色多元導致責任認定難。人工智能產(chǎn)業(yè)鏈條復雜、上下游相互依存,案件往往涉及訓練者、開發(fā)者、服務提供者、使用者等不同角色,各方主體分工合作形成復雜關聯(lián),影響法律責任的認定。例如在北京互聯(lián)網(wǎng)法院審結的全國首例“AI聲音權案”中,原告主張侵犯其聲音權益的被告涵蓋錄音制品制作者、文本轉語音產(chǎn)品開發(fā)者、服務提供者以及云服務平臺等人工智能數(shù)據(jù)訓練、模型研發(fā)和技術服務鏈條下的眾多環(huán)節(jié)中的多個主體,如何理順相應的產(chǎn)業(yè)鏈條,在眾多主體中確定責任由誰承擔,既關涉?zhèn)€案公平正義的實現(xiàn),又影響著相關產(chǎn)業(yè)能否健康有序發(fā)展。
北京互聯(lián)網(wǎng)法院對預防化解涉人工智能案件糾紛提出4點建議:提升法律意識與數(shù)字素養(yǎng),明確自身行為邊界,依法維護自身合法權益;嚴格遵守技術倫理規(guī)范,確保數(shù)據(jù)和基礎模型來源合法;積極完善管理機制,強化人工智能服務提供者主體責任;加強人工智能監(jiān)管協(xié)同合作,形成監(jiān)管合力。















