清華大學教授黃民烈:AIGC時代保障數據安全要靠算法而不是人

中國網教育 2024-04-28 10:13:59

【環球時報-環球網報道 記者 倪浩】生成式人工智能(AIGC)時代實現數據安全,要依靠算法和工具,而不是人。在4月27日下午在“2024中關村論壇數據安全治理與發展論壇”上,清華大學計算機科學與技術系教授、人工智能研究院基礎模型研究中心副主任黃民烈教授表示,與過去傳統的數字經濟時代不同,人工智能(AI)時代尤其是生成式人工智能(AIGC)的出現,讓人類所面臨的數據安全問題已有很大的不同,而進行風險管控的方法也有根本的不同。

清華大學計算機科學與技術系教授黃民烈在發言 (主辦方供圖)

在這次論壇的圓桌會議上發言時,黃民烈表示,“過去,我們把一些不好的、髒的、有害的數據過濾掉,清洗幹淨就可以了。但是現在,生成式人工智能(AIGC)是一種生成式的模型,它會通過訓練組合生成新的內容,這些新的內容在過去的語料裏根本沒有出現過,但它依然可能是有害的。所以,即使是我們把大模型訓練之前的有害數據清除的很幹淨,在生成式人工智能(AIGC)時代我們依然會面臨有害內容産生的風險。”

那麽怎麽應對生成式人工智能(AIGC)所帶來的新的數據全安的風險呢?要靠算法的研究,而不是人。黃民烈說,一般情況下,在各種大模型中,人們采用關鍵詞過濾,進行風險檢測後上線,對外提供服務。但是,有些人依然有辦法讓它“越獄”,讓這種安全管控失效,並産生有害的內容。爲杜絕這種風險,就要依賴背後的算法的研究。

黃民烈說,“這些算法有幾類,其中包括研究有針對性的對抗和攻擊的方法,比如事先讓一些算法自動發現這個模型的漏洞和風險;第二,可以研究算法去追蹤模型存在哪些漏洞,再針對性的制定安全手段。這兩種手段都是通過算法把一些問題在大模型上線前進行自動修複。

“一句話來講,在生成式人工智能(AIGC)時代,在數據安全層面,其實我們面臨的是不斷組合和創造出來的新的數據安全風險問題,這種風險徹底的解決是需要我們的算法和工具的支撐,而不是靠人。”黃民烈說,靠一些靜態的方法去做一些相對固定的檢測,實際上是不能夠勝任新的生成式人工智能(AIGC)時代的數據檢測和安全的要求的。

0 阅读:1

中國網教育

簡介:教育