(資料圖片僅供參考)
近日,杭州互聯(lián)網(wǎng)法院審結全國首例因生成式人工智能模型“幻覺”引發(fā)的侵權糾紛案。法院的判決為生成式人工智能服務厘清責任邊界。當AI成為生活工作的助手,它所給出的不準確信息誤導他人時,是否構成侵權?服務提供者負有怎樣的責任?一起來看。
問:AI承諾生成內(nèi)容有誤將賠償,算數(shù)嗎?
答:現(xiàn)實操作中,AI帶來很多便利,但并非全知全能,其生成的答案可能包含看似合理實則錯誤的“幻覺”信息。杭州的案例中,AI甚至提出“如果生成內(nèi)容有誤,我將賠償您10萬元”,從而引發(fā)相關糾紛。從法院判決看,在生成式人工智能場景中,AI的承諾并不代表平臺的意思。這既為AI生成內(nèi)容劃出紅線,也進一步厘清了服務提供者的注意義務邊界。
問:AI模型是否屬于獨立的民事主體?
答:法院判決明確,AI實際上不具有民事主體資格。從實踐層面看,案涉AI自行生成的賠償承諾也不能視為服務提供者的意思表示。也就是說,人工智能不是服務提供者的傳達人、代理人或代表人,除非服務提供者通過AI模型來設定或傳達相關信息,否則類似“生成內(nèi)容有誤將賠償”這樣的承諾是沒有法律效力的。
問:AI服務提供者有哪些責任義務?
答:依據(jù)《生成式人工智能服務管理暫行辦法》,生成式人工智能服務屬于服務范疇。AI生成內(nèi)容雖然不是我國產(chǎn)品質量法意義上的產(chǎn)品,但服務提供者負有嚴格審查義務。例如,發(fā)現(xiàn)違法內(nèi)容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓練等措施進行整改等。同時需以顯著方式向用戶提示AI生成內(nèi)容可能不準確,發(fā)出“警示提醒”等,以防范用戶產(chǎn)生不當信賴。
(責任編輯:何欣)標簽:




















































營業(yè)執(zhí)照公示信息