昨天,網(wǎng)絡(luò)瘋傳一條關(guān)于杭州市政府3月1號取消限行的“新聞稿”。
據(jù)浙江之聲,記者調(diào)查發(fā)現(xiàn),這是一條不實(shí)新聞。據(jù)了解,昨天下午杭州某小區(qū)業(yè)主群里討論ChatGPT,一位業(yè)主就開玩笑說嘗試用它寫篇杭州不限行的新聞稿看看。隨后該業(yè)主在群里直播了ChatGPT寫作過程,還把文章發(fā)群里。其他業(yè)主不明所以截圖轉(zhuǎn)發(fā)了,最后導(dǎo)致錯誤信息被傳播。
據(jù)了解,警方已介入調(diào)查。涉事業(yè)主也在群里公開道歉。截至目前,杭州相關(guān)政府部門均沒有發(fā)布此類政策。
圖片來源:杭州網(wǎng)
ChatGPT有何風(fēng)險?
據(jù)中國郵電報報道,ChatGPT的強(qiáng)大功能也隱含不少法律風(fēng)險。北京盈科(上海)律師事務(wù)所互聯(lián)網(wǎng)法律事務(wù)部主任謝連杰接受采訪時表示,ChatGPT對信息、數(shù)據(jù)來源無法進(jìn)行事實(shí)核查,可能存在個人數(shù)據(jù)與商業(yè)秘密泄露和提供虛假信息兩大隱患。
ChatGPT依托海量數(shù)據(jù)(603138)庫信息存在,其中包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,因此當(dāng)用戶輸入個人數(shù)據(jù)或商業(yè)秘密等信息時,ChatGPT可能將其納入自身的語料庫而產(chǎn)生泄露的風(fēng)險。雖然ChatGPT承諾刪除所有個人身份信息,但未說明刪除方式,在其不能對信息與數(shù)據(jù)來源進(jìn)行事實(shí)核查的情況下,這類信息仍然有泄露風(fēng)險。他表示,人工智能生成的信息并不總是準(zhǔn)確的。“ChatGPT常常出現(xiàn)‘一本正經(jīng)地胡說八道’的情況,需要一定的專業(yè)知識才能辨別真?zhèn)危灰部赡苡胁环ǚ肿訍阂狻?xùn)練’人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內(nèi)容,損害公民人身和財產(chǎn)安全!
泰和泰(重慶)律師事務(wù)所高級合伙人朱杰認(rèn)為,ChatGPT在建立語料庫、生成文本時,如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實(shí)施,可能會導(dǎo)致侵權(quán)。朱杰解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本來進(jìn)行統(tǒng)計分析,因此,對于一些受著作權(quán)保護(hù)的文本、視頻、代碼等,如果沒有經(jīng)過權(quán)利主體的授權(quán),直接復(fù)制到自己的數(shù)據(jù)庫中,并在此基礎(chǔ)上修改、拼湊,極有可能侵害他人的著作權(quán)。
此外,據(jù)中青報報道,華中科技大學(xué)法學(xué)院副教授滕銳在接受中青報·中青網(wǎng)記者采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓(xùn)練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對其內(nèi)在的算法邏輯進(jìn)行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復(fù)是錯誤或虛假信息,會具有極大的誤導(dǎo)性,有潛在法律風(fēng)險!痹谒磥,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。
北京京師(上海)律師事務(wù)所高級合伙人李陽律師分析,ChatGPT這類的AI軟件沒有獨(dú)立人格,不具備我國著作權(quán)法規(guī)范中“作者”的主體資格。AI軟件有可能使用未經(jīng)授權(quán)的作品作為素材,只要是網(wǎng)絡(luò)上公開的數(shù)據(jù)和信息,就有可能成為被AI學(xué)習(xí)的數(shù)據(jù),除了主動詢問軟件開發(fā)者,基本沒有其他有效方式可以阻止。
李陽認(rèn)為,作者很難查清楚自己的作品是否被AI用來“學(xué)習(xí)”了,“權(quán)利人如果要進(jìn)行維權(quán),在當(dāng)前法律體系下難度很大”。
“任何一項(xiàng)新數(shù)字技術(shù)出現(xiàn)時,年輕人的反應(yīng)最敏銳,對新事物的接受能力也很強(qiáng)。他們不僅僅是消費(fèi)者,也有可能是未來新技術(shù)的創(chuàng)造者。”武漢大學(xué)法學(xué)院教授孫晉提醒,年輕人也要注意,網(wǎng)絡(luò)不是法外之地,利用新技術(shù)時,不要觸碰道德和法律底線。
最新評論