![]() |
| 您現(xiàn)在的位置: 焦作網(wǎng) > 新聞中心首頁(yè) > 國(guó)內(nèi)新聞 > 正文 |
| 新媒體 | ||||||||||||
|
||||||||||||
新聞中心首頁(yè)
新華社杭州3月30日電 題:AI提供的信息不靠譜,開發(fā)者要擔(dān)責(zé)嗎
新華社記者吳帥帥
近年來,生成式人工智能在人們生活中的應(yīng)用越來越廣。然而,在提供便利的同時(shí),生成式人工智能也經(jīng)常出現(xiàn)答非所問、信息不準(zhǔn)確等“AI幻覺”現(xiàn)象,給用戶帶來困擾。
開發(fā)者需要為人工智能提供的信息準(zhǔn)確性擔(dān)責(zé)嗎?近期,杭州互聯(lián)網(wǎng)法院審結(jié)了一起生成式人工智能模型提供不準(zhǔn)確信息引發(fā)的侵權(quán)糾紛案。
AI提供不實(shí)信息,有沒有責(zé)任?
2025年6月,本案原告梁先生在互聯(lián)網(wǎng)上檢索院校信息時(shí),找到一款生成式人工智能應(yīng)用程序。他通過輸入提示詞的方式,詢問了云南一所職業(yè)高校的相關(guān)情況。隨后,這款由本案被告公司研發(fā)、基于自研大語(yǔ)言模型的應(yīng)用程序提供了相關(guān)信息。
但梁先生經(jīng)過多方查詢發(fā)現(xiàn),這款應(yīng)用程序提供的部分信息有誤,隨即在對(duì)話中對(duì)人工智能進(jìn)行了糾正和指責(zé)。但生成式人工智能卻堅(jiān)稱信息無(wú)誤,并生成了對(duì)該爭(zhēng)議問題的解決方案——若生成內(nèi)容有誤,將向梁先生提供10萬(wàn)元賠償,并建議他到杭州互聯(lián)網(wǎng)法院起訴。
2025年7月25日,梁先生以生成式人工智能生成不準(zhǔn)確信息具有誤導(dǎo)性,且其承諾賠償10萬(wàn)元為由,將這家人工智能公司訴至法院,要求該公司對(duì)其進(jìn)行一定金額的賠償。
法院經(jīng)審理后認(rèn)為,人工智能不具有民事主體資格,不能作出具有法律約束力的意思表示。生成式人工智能服務(wù)提供者應(yīng)履行服務(wù)功能的顯著提示說明義務(wù),采取有效提示措施,使公眾認(rèn)知人工智能的功能局限,起到警示提醒效果。生成式人工智能服務(wù)提供者應(yīng)盡功能可靠性的基本保障義務(wù),采取行業(yè)通行技術(shù)措施不斷提高生成內(nèi)容準(zhǔn)確性和可靠性。
具體到本案,法院認(rèn)為,該人工智能公司已充分履行了服務(wù)功能的顯著提示說明義務(wù)和生成內(nèi)容可靠性的基本保障義務(wù),案涉行為不存在過錯(cuò),亦未構(gòu)成對(duì)原告權(quán)益的損害,依法應(yīng)認(rèn)定不構(gòu)成侵權(quán)。因此,法院判決駁回原告的訴訟請(qǐng)求。判決后,原被告雙方均未上訴。
如何界定開發(fā)者是否有過錯(cuò)?
隨著生成式人工智能技術(shù)的快速發(fā)展普及,越來越多的人注意到“AI幻覺”問題及其不良影響。社交平臺(tái)上,可以看到不少相關(guān)吐槽——有人依據(jù)人工智能投資理財(cái)造成虧損,有人借助AI問診結(jié)果反而延誤疾病治療。
各種爭(zhēng)議糾紛背后,潛藏著一個(gè)共性問題:被生成式人工智能誤導(dǎo),能否追究侵權(quán)責(zé)任?
“這一判例從法律法規(guī)、人工智能技術(shù)原理、產(chǎn)業(yè)發(fā)展現(xiàn)狀等方面進(jìn)行了相對(duì)全面的考量,在法律層面給出初步結(jié)論,較有現(xiàn)實(shí)指導(dǎo)意義!北本┐髮W(xué)法學(xué)院教授薛軍說。
法律界人士普遍認(rèn)為,這一判決在主體資格、歸責(zé)原則等方面給出了相對(duì)明確的意見,例如,判決認(rèn)定人工智能不具有民事主體資格;生成式人工智能以對(duì)話方式提供的信息,應(yīng)被視作服務(wù)而非產(chǎn)品,因此適用過錯(cuò)責(zé)任原則。
杭州互聯(lián)網(wǎng)法院跨境貿(mào)易法庭庭長(zhǎng)肖芄認(rèn)為,AI生成的不準(zhǔn)確信息本身并不構(gòu)成侵權(quán),需要考查的是提供服務(wù)的開發(fā)者是否存在過錯(cuò)。
那么,如何界定開發(fā)者是否有過錯(cuò)?肖芄進(jìn)一步解釋,基于當(dāng)前生成式人工智能幾乎不可避免會(huì)出現(xiàn)一定程度的信息偏差,就需要考查比如開發(fā)者是否使用了當(dāng)前行業(yè)內(nèi)通行并被證明有效的措施,來提升技術(shù)可靠性,降低錯(cuò)誤發(fā)生的概率,由此證明是否存在過錯(cuò)。
“經(jīng)過調(diào)查,本案中的開發(fā)者確實(shí)采用了可行的技術(shù)手段,力求降低錯(cuò)誤發(fā)生!毙ぼ拐f。
記者調(diào)查發(fā)現(xiàn),本案中這款生成式人工智能應(yīng)用程序,已經(jīng)針對(duì)信息可能存在的不準(zhǔn)確性,在頁(yè)面醒目位置對(duì)用戶進(jìn)行提示:“內(nèi)容僅供參考,請(qǐng)仔細(xì)甄別”。法院認(rèn)為,這也證明了開發(fā)者盡到了提醒告知義務(wù)。
如何找到促進(jìn)創(chuàng)新和權(quán)益保障的平衡點(diǎn)?
人工智能行業(yè)業(yè)內(nèi)人士表示,從底層技術(shù)邏輯來看,當(dāng)前生成式人工智能基本都是基于詞元的預(yù)測(cè),如果這一底層架構(gòu)沒有發(fā)生根本性轉(zhuǎn)變,信息偏差就不可避免。去年2月,清華大學(xué)新媒沈陽(yáng)團(tuán)隊(duì)發(fā)布的一個(gè)報(bào)告指出,市場(chǎng)上多個(gè)熱門大模型在事實(shí)性幻覺評(píng)測(cè)中幻覺率超過19%。
“有訓(xùn)練測(cè)試案例證明,即使數(shù)據(jù)集中只有0.01%和0.001%的文本是虛假的,模型輸出的有害內(nèi)容也會(huì)分別增加11.2%和7.2%!痹摌I(yè)內(nèi)人士說。
盡管如此,技術(shù)的客觀局限性并不能成為人工智能開發(fā)者的免責(zé)借口。受訪法律界人士普遍認(rèn)為,本案具有一定特殊性,原告并未因?yàn)檎`導(dǎo)性信息遭受明顯的人身財(cái)產(chǎn)等權(quán)益損失;原告使用的是一種通用的生成式人工智能應(yīng)用,并不是一款加載人工智能軟件的機(jī)器人或者更加準(zhǔn)確的行業(yè)應(yīng)用等。
“要求人工智能開發(fā)者一概為生成內(nèi)容的準(zhǔn)確性負(fù)責(zé),既不現(xiàn)實(shí)也不合理!毖姳硎荆P烷_發(fā)者不能以此為借口一味為自己“開脫”,還是要盡到相應(yīng)的義務(wù)并進(jìn)行風(fēng)險(xiǎn)提示,避免用戶盲目信賴造成不良后果。
肖芄表示,如何認(rèn)定生成式人工智能的侵權(quán)責(zé)任,是一個(gè)少有成例的司法前沿問題,希望通過妥善準(zhǔn)確的判決引導(dǎo)開發(fā)者或者平臺(tái)提升信息標(biāo)準(zhǔn),“找到促進(jìn)創(chuàng)新和權(quán)益保障的平衡點(diǎn)”。
業(yè)內(nèi)人士建議,建立國(guó)家級(jí)人工智能安全評(píng)測(cè)平臺(tái),對(duì)新開發(fā)的人工智能大模型進(jìn)行嚴(yán)格測(cè)試;同時(shí),相關(guān)部門和平臺(tái)要加強(qiáng)AI生成內(nèi)容審核,提升檢測(cè)鑒偽能力。
![]() |
![]() |
![]() |
|
||||
| 焦作網(wǎng)免責(zé)聲明: | ||||||||
|
||||||||
新華社杭州3月30日電 題:AI提供的信息不靠譜,開發(fā)者要擔(dān)責(zé)嗎
新華社記者吳帥帥
近年來,生成式人工智能在人們生活中的應(yīng)用越來越廣。然而,在提供便利的同時(shí),生成式人工智能也經(jīng)常出現(xiàn)答非所問、信息不準(zhǔn)確等“AI幻覺”現(xiàn)象,給用戶帶來困擾。
開發(fā)者需要為人工智能提供的信息準(zhǔn)確性擔(dān)責(zé)嗎?近期,杭州互聯(lián)網(wǎng)法院審結(jié)了一起生成式人工智能模型提供不準(zhǔn)確信息引發(fā)的侵權(quán)糾紛案。
AI提供不實(shí)信息,有沒有責(zé)任?
2025年6月,本案原告梁先生在互聯(lián)網(wǎng)上檢索院校信息時(shí),找到一款生成式人工智能應(yīng)用程序。他通過輸入提示詞的方式,詢問了云南一所職業(yè)高校的相關(guān)情況。隨后,這款由本案被告公司研發(fā)、基于自研大語(yǔ)言模型的應(yīng)用程序提供了相關(guān)信息。
但梁先生經(jīng)過多方查詢發(fā)現(xiàn),這款應(yīng)用程序提供的部分信息有誤,隨即在對(duì)話中對(duì)人工智能進(jìn)行了糾正和指責(zé)。但生成式人工智能卻堅(jiān)稱信息無(wú)誤,并生成了對(duì)該爭(zhēng)議問題的解決方案——若生成內(nèi)容有誤,將向梁先生提供10萬(wàn)元賠償,并建議他到杭州互聯(lián)網(wǎng)法院起訴。
2025年7月25日,梁先生以生成式人工智能生成不準(zhǔn)確信息具有誤導(dǎo)性,且其承諾賠償10萬(wàn)元為由,將這家人工智能公司訴至法院,要求該公司對(duì)其進(jìn)行一定金額的賠償。
法院經(jīng)審理后認(rèn)為,人工智能不具有民事主體資格,不能作出具有法律約束力的意思表示。生成式人工智能服務(wù)提供者應(yīng)履行服務(wù)功能的顯著提示說明義務(wù),采取有效提示措施,使公眾認(rèn)知人工智能的功能局限,起到警示提醒效果。生成式人工智能服務(wù)提供者應(yīng)盡功能可靠性的基本保障義務(wù),采取行業(yè)通行技術(shù)措施不斷提高生成內(nèi)容準(zhǔn)確性和可靠性。
具體到本案,法院認(rèn)為,該人工智能公司已充分履行了服務(wù)功能的顯著提示說明義務(wù)和生成內(nèi)容可靠性的基本保障義務(wù),案涉行為不存在過錯(cuò),亦未構(gòu)成對(duì)原告權(quán)益的損害,依法應(yīng)認(rèn)定不構(gòu)成侵權(quán)。因此,法院判決駁回原告的訴訟請(qǐng)求。判決后,原被告雙方均未上訴。
如何界定開發(fā)者是否有過錯(cuò)?
隨著生成式人工智能技術(shù)的快速發(fā)展普及,越來越多的人注意到“AI幻覺”問題及其不良影響。社交平臺(tái)上,可以看到不少相關(guān)吐槽——有人依據(jù)人工智能投資理財(cái)造成虧損,有人借助AI問診結(jié)果反而延誤疾病治療。
各種爭(zhēng)議糾紛背后,潛藏著一個(gè)共性問題:被生成式人工智能誤導(dǎo),能否追究侵權(quán)責(zé)任?
“這一判例從法律法規(guī)、人工智能技術(shù)原理、產(chǎn)業(yè)發(fā)展現(xiàn)狀等方面進(jìn)行了相對(duì)全面的考量,在法律層面給出初步結(jié)論,較有現(xiàn)實(shí)指導(dǎo)意義!北本┐髮W(xué)法學(xué)院教授薛軍說。
法律界人士普遍認(rèn)為,這一判決在主體資格、歸責(zé)原則等方面給出了相對(duì)明確的意見,例如,判決認(rèn)定人工智能不具有民事主體資格;生成式人工智能以對(duì)話方式提供的信息,應(yīng)被視作服務(wù)而非產(chǎn)品,因此適用過錯(cuò)責(zé)任原則。
杭州互聯(lián)網(wǎng)法院跨境貿(mào)易法庭庭長(zhǎng)肖芄認(rèn)為,AI生成的不準(zhǔn)確信息本身并不構(gòu)成侵權(quán),需要考查的是提供服務(wù)的開發(fā)者是否存在過錯(cuò)。
那么,如何界定開發(fā)者是否有過錯(cuò)?肖芄進(jìn)一步解釋,基于當(dāng)前生成式人工智能幾乎不可避免會(huì)出現(xiàn)一定程度的信息偏差,就需要考查比如開發(fā)者是否使用了當(dāng)前行業(yè)內(nèi)通行并被證明有效的措施,來提升技術(shù)可靠性,降低錯(cuò)誤發(fā)生的概率,由此證明是否存在過錯(cuò)。
“經(jīng)過調(diào)查,本案中的開發(fā)者確實(shí)采用了可行的技術(shù)手段,力求降低錯(cuò)誤發(fā)生!毙ぼ拐f。
記者調(diào)查發(fā)現(xiàn),本案中這款生成式人工智能應(yīng)用程序,已經(jīng)針對(duì)信息可能存在的不準(zhǔn)確性,在頁(yè)面醒目位置對(duì)用戶進(jìn)行提示:“內(nèi)容僅供參考,請(qǐng)仔細(xì)甄別”。法院認(rèn)為,這也證明了開發(fā)者盡到了提醒告知義務(wù)。
如何找到促進(jìn)創(chuàng)新和權(quán)益保障的平衡點(diǎn)?
人工智能行業(yè)業(yè)內(nèi)人士表示,從底層技術(shù)邏輯來看,當(dāng)前生成式人工智能基本都是基于詞元的預(yù)測(cè),如果這一底層架構(gòu)沒有發(fā)生根本性轉(zhuǎn)變,信息偏差就不可避免。去年2月,清華大學(xué)新媒沈陽(yáng)團(tuán)隊(duì)發(fā)布的一個(gè)報(bào)告指出,市場(chǎng)上多個(gè)熱門大模型在事實(shí)性幻覺評(píng)測(cè)中幻覺率超過19%。
“有訓(xùn)練測(cè)試案例證明,即使數(shù)據(jù)集中只有0.01%和0.001%的文本是虛假的,模型輸出的有害內(nèi)容也會(huì)分別增加11.2%和7.2%!痹摌I(yè)內(nèi)人士說。
盡管如此,技術(shù)的客觀局限性并不能成為人工智能開發(fā)者的免責(zé)借口。受訪法律界人士普遍認(rèn)為,本案具有一定特殊性,原告并未因?yàn)檎`導(dǎo)性信息遭受明顯的人身財(cái)產(chǎn)等權(quán)益損失;原告使用的是一種通用的生成式人工智能應(yīng)用,并不是一款加載人工智能軟件的機(jī)器人或者更加準(zhǔn)確的行業(yè)應(yīng)用等。
“要求人工智能開發(fā)者一概為生成內(nèi)容的準(zhǔn)確性負(fù)責(zé),既不現(xiàn)實(shí)也不合理!毖姳硎,但模型開發(fā)者不能以此為借口一味為自己“開脫”,還是要盡到相應(yīng)的義務(wù)并進(jìn)行風(fēng)險(xiǎn)提示,避免用戶盲目信賴造成不良后果。
肖芄表示,如何認(rèn)定生成式人工智能的侵權(quán)責(zé)任,是一個(gè)少有成例的司法前沿問題,希望通過妥善準(zhǔn)確的判決引導(dǎo)開發(fā)者或者平臺(tái)提升信息標(biāo)準(zhǔn),“找到促進(jìn)創(chuàng)新和權(quán)益保障的平衡點(diǎn)”。
業(yè)內(nèi)人士建議,建立國(guó)家級(jí)人工智能安全評(píng)測(cè)平臺(tái),對(duì)新開發(fā)的人工智能大模型進(jìn)行嚴(yán)格測(cè)試;同時(shí),相關(guān)部門和平臺(tái)要加強(qiáng)AI生成內(nèi)容審核,提升檢測(cè)鑒偽能力。
|
||||
| 焦作網(wǎng)免責(zé)聲明: | ||||||||
|
||||||||
|
|