2026-05-10 19:56:46
每經(jīng)評(píng)論員 杜恒峰
2024年9月,江蘇南京執(zhí)業(yè)律師李小亮發(fā)現(xiàn),在百度手機(jī)App(應(yīng)用程序)、百度網(wǎng)站搜索其“個(gè)人姓名+職務(wù)”時(shí),“百度AI(人工智能)智能回答”竟然給出“李小亮律師被判三年有期徒刑”的錯(cuò)誤文字內(nèi)容,并配有他身著律師袍的照片。
2025年9月,南京市江北新區(qū)法院一審認(rèn)定北京百度網(wǎng)訊科技有限公司(以下簡(jiǎn)稱百度公司)上述行為構(gòu)成名譽(yù)侵權(quán),并判決向李小亮?xí)娴狼?,百度公司不服提出上訴。2026年3月,南京中院二審駁回上訴,維持原判。由于百度公司尚未履行生效判決,近日,李小亮向江北新區(qū)法院提交了強(qiáng)制執(zhí)行申請(qǐng)。
如果一個(gè)人辱罵了另外一個(gè)人,就理應(yīng)道歉,這屬于常識(shí)范疇,但對(duì)提供信息搜索服務(wù)的互聯(lián)網(wǎng)平臺(tái)來(lái)說(shuō),情況要復(fù)雜得多。
法院判決提到,百度搜索的下拉詞條、“大家還在搜”等顯示的內(nèi)容均為用戶使用百度搜索功能記憶,用戶搜索的“江蘇李小亮律師坐牢了嗎”等相關(guān)內(nèi)容并不具有明確指向性,百度公司未能主動(dòng)更新刪除,并無(wú)主觀過(guò)錯(cuò),屬于合法履行義務(wù)。同時(shí),百度公司對(duì)于相關(guān)搜索內(nèi)容所涉及的詞語(yǔ)也不能直接屏蔽,否則會(huì)損害相關(guān)用戶的權(quán)益。因此,百度搜索的下拉詞條、“大家還在搜”等顯示的內(nèi)容不構(gòu)成侵權(quán)。
而真正構(gòu)成侵權(quán)的,是“AI智能回答”將李小亮照片與“李小亮因犯爆炸罪,被判有期徒刑三年”等信息一同顯示,指向性明確,會(huì)對(duì)其工作、生活等方面造成負(fù)面評(píng)價(jià)。
百度公司之所以不愿意履行判決義務(wù)進(jìn)行道歉,與其堅(jiān)稱的“技術(shù)中立”原則有關(guān),即科技或工具的發(fā)明者無(wú)法控制使用者如何使用該工具,所以也不應(yīng)為意料之外的工具用途負(fù)責(zé),如果要求服務(wù)提供者對(duì)技術(shù)受限造成的結(jié)果承擔(dān)侵權(quán)責(zé)任,則是過(guò)分苛責(zé)新技術(shù)研發(fā)。其還指出,2024年是國(guó)內(nèi)人工智能發(fā)展初期,“AI智能回答”在有限技術(shù)條件下,準(zhǔn)確性受限,百度公司對(duì)損害后果的發(fā)生不具有預(yù)見性,司法理應(yīng)采取克制和謙抑態(tài)度,而非積極干預(yù)創(chuàng)新。
但是技術(shù)中立必須遵循一定的規(guī)則,即工具或技術(shù)是被動(dòng)的、中性的。用戶常用的網(wǎng)盤、搜索引擎、社交網(wǎng)絡(luò),都是平臺(tái)提供工具,由用戶上傳、發(fā)布內(nèi)容,技術(shù)本身只是傳輸、存儲(chǔ)的工具,無(wú)法主動(dòng)生產(chǎn)信息,因此不對(duì)用戶濫用工具承擔(dān)責(zé)任,即工具不生產(chǎn)內(nèi)容,只提供渠道。法院上述判決其實(shí)也承認(rèn)了這一原則——搜索框的下拉詞條不管是什么內(nèi)容,都是用戶生成的,百度公司可以免責(zé)。
問(wèn)題在于,“AI智能問(wèn)答”的內(nèi)容是由大模型主動(dòng)生成、主動(dòng)輸出的信息,并非被動(dòng)呈現(xiàn)用戶內(nèi)容;AI產(chǎn)生“幻覺”編造“律師犯爆炸罪、判刑三年”并匹配李小亮照片,這不屬于技術(shù)中立的范疇。
關(guān)于技術(shù)發(fā)展初期司法不應(yīng)“積極干預(yù)創(chuàng)新”,這一邏輯顛倒了技術(shù)發(fā)展與法律責(zé)任的關(guān)系。法律從來(lái)不是否定AI技術(shù),而是禁止AI成為造謠、侵害他人人格權(quán)的工具。新技術(shù)可以容錯(cuò),但不能容忍主動(dòng)捏造他人犯罪記錄、精準(zhǔn)匹配個(gè)人肖像、侵害名譽(yù)權(quán)。如果以技術(shù)發(fā)展為借口,免除平臺(tái)對(duì)AI生成虛假信息的責(zé)任,等于允許大模型造假,而平臺(tái)無(wú)需承擔(dān)后果。其結(jié)果必然是導(dǎo)致AI技術(shù)野蠻生長(zhǎng),侵權(quán)行為會(huì)層出不窮,即所謂“劣幣驅(qū)逐良幣”,糟糕的AI工具將占領(lǐng)市場(chǎng),對(duì)整個(gè)行業(yè)發(fā)展百害而無(wú)一利。
解決信任問(wèn)題,是AI從能用到好用再到可以放心用的必修課。AI生成內(nèi)容可信需要平臺(tái)付出大量工作和成本,以貼合真實(shí)信息,對(duì)齊法律和道德準(zhǔn)則。當(dāng)AI工具越是不可或缺,其越可信,使用的用戶就會(huì)更多,商業(yè)價(jià)值也才會(huì)跟隨增長(zhǎng)。從這個(gè)角度看,解決AI可信問(wèn)題就不應(yīng)當(dāng)視為成本項(xiàng)目,而是平臺(tái)贏得用戶的強(qiáng)大競(jìng)爭(zhēng)壁壘。
封面圖片來(lái)源:每日經(jīng)濟(jì)新聞
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP