國家網(wǎng)絡安全宣傳周—信息科技教研組網(wǎng)絡安全、網(wǎng)絡道德主題課

[日期:2024-12-08] 作者:信息技術 次瀏覽 [字體: ]

Logo.png

  2024年9月9日至15日,2024年國家網(wǎng)絡安全宣傳周在全國范圍內(nèi)統(tǒng)一開展。本次活動圍繞網(wǎng)絡安全協(xié)同治理、個人信息保護、智能網(wǎng)聯(lián)汽車安全、青少年網(wǎng)絡保護、互聯(lián)網(wǎng)政務應用安全等主題舉辦論壇會議。本次活動以“網(wǎng)絡安全為人民,網(wǎng)絡安全靠人民”和“市民身邊的網(wǎng)絡安全”為主題,同時全國網(wǎng)絡安全標準化技術委員會發(fā)布《人工智能安全治理框架》1.0版。

  為了響應上級教育主管部門的號召,我校也利用網(wǎng)絡安全宣傳周這樣一個契機開展了中學生網(wǎng)絡安全和網(wǎng)絡道德的主題課,這也與我們的健全人格教育深度融合。

微信圖片_20241208210830.png

  隨著人工智能的廣泛應用,基于人工智能的偽造詐騙日益增多,以下舉出幾個方面,大家要警惕和防范。

微信圖片_20241208211357.png

  【語音詐騙】

  人工智能語音合成技術可以模仿他人的聲音。詐騙分子利用這一點,通過收集目標人物(如企業(yè)高管、家人等)的語音樣本,然后使用語音合成軟件生成逼真的語音。例如,他們可能會模仿公司老板的聲音給財務人員打電話,要求緊急轉(zhuǎn)賬。由于聲音聽起來非常像老板,財務人員如果警惕性不高,就很容易上當受騙。

  有些語音詐騙還會結(jié)合人工智能對話系統(tǒng)。這些系統(tǒng)可以根據(jù)對方的回答,自動生成后續(xù)的語音內(nèi)容,讓對話看起來更自然,進一步迷惑受害者。

  【圖像和視頻詐騙】

  人工智能的圖像生成技術(如生成對抗網(wǎng)絡 - GAN)能夠制作出高度逼真的假照片和假視頻。詐騙分子可以制作假的身份證明、合同文件等圖像,或者合成假的視頻來進行詐騙。例如,制作一段某人陷入困境(如被綁架)的視頻,向其家屬勒索錢財。

  深度偽造(Deepfake)技術在視頻領域更是危害巨大。它可以將一個人的臉替換到另一個人的身體上,在色情、金融詐騙等多個領域被不法分子利用。比如,制作名人推薦虛假投資產(chǎn)品的視頻,利用名人效應吸引受害者投資。

  【智能客服詐騙】

  一些詐騙分子會搭建虛假的智能客服系統(tǒng)。這些系統(tǒng)模仿正規(guī)企業(yè)的客服風格和流程,當用戶咨詢相關業(yè)務時,會引導用戶泄露個人信息,如銀行卡號、驗證碼等。例如,假冒銀行客服,以賬戶安全檢查等理由,誘導用戶輸入銀行卡密碼和驗證碼,從而盜取用戶資金。

  【聊天機器人詐騙】

 詐騙分子利用聊天機器人在社交平臺或網(wǎng)絡交友平臺上尋找目標。這些聊天機器人可以根據(jù)預設的話術和算法,與受害者進行長時間的交流,建立信任關系。然后,以各種理由(如投資機會、緊急借款等)誘騙受害者轉(zhuǎn)賬。例如,在交友平臺上,聊天機器人偽裝成高富帥或白富美,向受害者推薦所謂的高收益投資項目,一旦受害者投入資金,就會血本無歸。


下一條:沒有啦!