AI換臉直播AI視頻造謠 短視頻平臺內容莫輕信

[日期:2024-06-03] 作者:信息技術 次瀏覽 [字體: ]

生成式AI近年來發(fā)展迅速,人們用一段話甚至幾個關鍵詞,就能迅速生成文字、圖片甚至視頻。在各種視頻平臺,用AI工具制作的視頻已隨處可見。生成式AI給創(chuàng)作者帶來便捷,也讓居心不良的人造謠門檻降低。在短視頻平臺不僅出現(xiàn)了利用AI生成視頻進行造謠,更有賬號竊取烏克蘭網(wǎng)紅的形象通過AI打造虛擬人直播。

案例一:俄羅斯女孩還是烏克蘭女孩?

近日,一名烏克蘭網(wǎng)紅在個人社交賬號發(fā)布視頻,稱她發(fā)現(xiàn)自己的容貌、聲音出現(xiàn)在中文網(wǎng)絡,在多個不同賬號上,以俄羅斯姑娘的身份表達對中國的喜歡,并售賣俄羅斯糖果等商品。


資料圖源:烏克蘭網(wǎng)紅奧爾嘉辟謠

“有人在中國克隆了我?!眾W爾嘉(Olga Loiek)說。實際上,她并未從這些商品中獲利,復制她音容的賬號粉絲甚至比她自己的還多。

在奧爾嘉的講述中,這些以她形象出現(xiàn)的“俄羅斯姑娘”,變身為娜塔莎、安娜、葉琳娜……等多個名稱,她們自稱在中國生活多年,希望嫁給中國男人,接著她們便會向觀眾介紹俄羅斯特色產品,諸如巧克力、糖果等,點進鏈接便可購買。

其中一個名為“娜塔莎進口食品”的賬號粉絲量達14萬,而奧爾嘉本人的粉絲量僅1萬多。AI換臉幾乎做到以假亂真,甚至有人在評論區(qū)表示祝福,或詢問她“更喜歡哪個城市”。

奧爾嘉對此感到憤怒,并向各大中國社交媒體申訴反映,但稱隔了好幾個星期卻還沒有回應,因此她決定在其賬號上公開拆穿此事。目前小紅書平臺已屏蔽了此類虛假賬號。

案例二:AI造謠起火——法官:有期徒刑安排

除了虛擬人帶貨這種擦邊手段,也有些人秉持著“風浪越大,魚越貴”的理念,為了博眼球、蹭熱度,將人工智能技術用以編“偽消息”造“假報道”。

2023年6月,一條名為《浙江工業(yè)園現(xiàn)大火濃煙滾滾,目擊者稱有爆炸聲!》的視頻在網(wǎng)絡上流傳,引發(fā)網(wǎng)友關注。后經(jīng)相關部門核實為謠言。


資料圖源:紹興網(wǎng)警

據(jù)調查,當事人為給自己賬號漲粉引流,獲取更多利益,通過非法渠道購買了AI視頻生成軟件。該當事人將網(wǎng)絡熱門話題通過AI自動生成視頻產品,并上傳至多個熱門視頻平臺。

截至案發(fā),相關當事人發(fā)布的虛假視頻多達20余條,涉及浙江、湖南、上海、四川等多個省市,累計閱讀觀看量超過167萬次。目前浙江紹興上虞法院已開庭審理并當庭宣判了這起案件,兩名被告均被判處有期徒刑。

AI給自媒體創(chuàng)作行業(yè)提供了便利,節(jié)省了時間,提高了工作效率。但是也有不法之徒借機利用AI生成的不實信息擾亂公眾視線嗎,謀取私利。這就像之前短視頻平臺上十分流行的“毒雞湯”、“假科普”一樣,通過虛假信息,錯誤言論吸引眼球,讓人偏聽偏信,不少中老年人對這些錯誤言論深信不疑。

那么,我們該如何防范這些AI生成的虛假信息呢?筆者認為有以下幾點:

1. 保持警覺和理性思考:AI生成的謠言往往會夸大事實,制造緊張氛圍,以吸引人們的注意力。只要保持警覺理性地思考,往往能發(fā)現(xiàn)其中端倪;

2. 多方求證和交叉驗證:由于AI在處理信息和生成文本時可能存在局限性和偏差,因此生成的謠言中往往包含錯誤的事實或數(shù)據(jù)。我們可以通過查閱權威媒體、官方渠道或專業(yè)機構發(fā)布的信息,與多個來源的信息進行對比和驗證,來發(fā)現(xiàn)這些錯誤;

3. 利用技術手段輔助辨別:借助一些技術手段,如反向圖像搜索、文本比對工具等,可以幫助我們識別出AI生成的謠言。這些工具可以幫助我們查找信息的原始來源、比對文本內容等,從而揭示謠言的真相。

最后,筆者還是要提醒大家:AI欺騙成本低,短視頻平臺內容消息需多加甄別,切勿輕信。