瑞萊智慧CEO田天:沒有安全可控為前提 大模型無法落地應(yīng)用
原創(chuàng)
2024-09-29 09:20 星期日
科創(chuàng)板日報記者 李明明
①瑞萊智慧CEO田天告訴《科創(chuàng)板日報》記者,只有提供更加安全可控的AI才能更快速地把AI賦能千行百業(yè),特別是嚴(yán)肅場景;
②隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會越來越高,覆蓋面也會越來越廣,需要從技術(shù)和用戶兩方面共同努力。

《科創(chuàng)板日報》9月29日訊(記者 李明明)近期,韓國曝出“Deepfake”(深度偽造技術(shù))事件,被認(rèn)為是采用新犯罪手段的“N號房”案件重現(xiàn)。隨著AI在大模型等技術(shù)的帶動下向深度應(yīng)用方向邁進(jìn),AI帶來的數(shù)據(jù)泄露、“AI換臉”等安全問題愈發(fā)嚴(yán)峻,相關(guān)的AI詐騙案件頻發(fā),正給社會帶來巨大挑戰(zhàn)。

早在AI安全問題引起廣泛重視之前,瑞萊智慧就已深耕這一領(lǐng)域,聚焦人工智能安全和垂類大模型應(yīng)用,通過構(gòu)建大模型安全基座、AI偽造內(nèi)容檢測基座等,實(shí)現(xiàn)對AI大模型研發(fā)部署和應(yīng)用治理環(huán)節(jié)全覆蓋,建立了包括基礎(chǔ)算法平臺層、底層資源層、應(yīng)用層的全方位AI安全體系。

作為清華系深耕中國人工智能領(lǐng)域的創(chuàng)業(yè)企業(yè)之一,瑞萊智慧由中國科學(xué)院院士、人工智能研究院名譽(yù)院長張鈸和清華大學(xué)人工智能研究院副院長、計算機(jī)系教授朱軍共同擔(dān)任首席科學(xué)家,清華大學(xué)計算機(jī)系博士田天出任首席執(zhí)行官,其也是瑞萊智慧的創(chuàng)始人。

在人工智能時代,如何守護(hù)我們的信息安全?《科創(chuàng)板日報》記者就此專訪了田天,他表示,只有提供更加安全可控的AI才能夠更快速地把AI賦能千行百業(yè),特別是嚴(yán)肅場景(比如to B)。如果沒有安全可控為前提,大模型就無法落地和應(yīng)用,這是零和一的問題,有了安全可控,才有可能去實(shí)現(xiàn)應(yīng)用。

提供安全可控的AI 將AI賦能千行百業(yè)

《科創(chuàng)板日報》:作為一家初創(chuàng)企業(yè),為何選擇AI安全領(lǐng)域入局?

田天:這個問題其實(shí)就是創(chuàng)立初衷。瑞萊智慧2018年成立,目標(biāo)就是要去做更加安全可控的第三代人工智能的落地,讓人工智能真正應(yīng)用起來,能夠發(fā)揮作用和價值。

在公司成立之前,我們團(tuán)隊也在清華大學(xué)里進(jìn)行相關(guān)技術(shù)研究,并于2018年發(fā)現(xiàn),盡管AI在很多場景、領(lǐng)域的發(fā)展已經(jīng)很火熱,但還不能迅速落地,因?yàn)檫€缺乏一個非常重要的環(huán)節(jié),即AI的安全可控問題尚未解決,而只有提供更加安全可控的AI才能夠更快速的把AI賦能千行百業(yè),特別是嚴(yán)肅場景(比如to B)。

所以公司產(chǎn)品包括兩大類。一類是安全本身,即給AI產(chǎn)品做安全增強(qiáng),提供AI安全增強(qiáng)模塊和完整的AI解決方案,幫助客戶實(shí)現(xiàn)AI技術(shù)的應(yīng)用與價值。特別是在這兩年大模型安全需求越來越多之后,我們可以給客戶提供更加安全可控的大模型整體行業(yè)落地解決方案。

另一方面是利用AI去提升生產(chǎn)力,即相關(guān)領(lǐng)域的AI落地、提升和改善其工作效率等。其實(shí)從成立伊始公司就在做這些工作,比如一直在做的金融領(lǐng)域、政府和社會治理相關(guān)行業(yè)、工業(yè)制造領(lǐng)域等。

《科創(chuàng)板日報》:相比已經(jīng)深耕數(shù)年的同行們,比如奇安信、啟明星辰、綠盟科技、安恒信息等,瑞萊智慧有何競爭優(yōu)勢?

田天:傳統(tǒng)網(wǎng)安公司不太可能提供一個很強(qiáng)大的AI系統(tǒng)并解決AI安全問題。本質(zhì)上真正的AI公司是關(guān)注如何構(gòu)建一個更加可控、更加安全的AI系統(tǒng),其和互聯(lián)網(wǎng)安全、數(shù)據(jù)安全是完全不同的領(lǐng)域。

隨著人工智能技術(shù)的發(fā)展,越來越多的企業(yè)開始關(guān)注AI安全,并試圖將AI技術(shù)應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域。一方面,網(wǎng)安企業(yè)通過引入AI技術(shù)來增強(qiáng)自身的競爭力;另一方面,專門從事人工智能開發(fā)的公司也在積極探索AI安全。在這一過程中,擁有強(qiáng)大AI能力和專業(yè)知識的團(tuán)隊成為競爭的關(guān)鍵。

在AI安全可控領(lǐng)域市場方面,我們還是較為領(lǐng)先的,并占了絕大多數(shù)份額。目前,客戶構(gòu)成方面包括幾百家的大型企業(yè)(包括央國企互聯(lián)網(wǎng)公司)、政府客戶、金融機(jī)構(gòu)等。

隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會越來越高

《科創(chuàng)板日報》:在產(chǎn)品開發(fā)中,你和團(tuán)隊遇到比較大的困難是什么?如何去解決困難?

田天:困難還是在于AI安全可控領(lǐng)域發(fā)展的太快,并充斥著大量的技術(shù)迭代。目前主要面臨兩個問題。一方面,我們研發(fā)一個能力更強(qiáng)的AI安全系統(tǒng),需要進(jìn)行持續(xù)的投入,特別是在大模型日新月異的時代,如何跟上模型能力發(fā)展,并處于AI大模型安全行業(yè)的最前沿,這是一個難點(diǎn);

另外一方面,最新的AI技術(shù)也會帶來很多更高層次的安全問題。此前,AI還比較弱,或者應(yīng)用范圍還比較窄的時候,其安全問題不太嚴(yán)重。而隨著AI能力越來越強(qiáng),應(yīng)用越來越廣,其引起的安全問題類型也會越來越多,同時造成的風(fēng)險隱患也會越來越大。因此,我們也要持續(xù)投入關(guān)注和研發(fā)。

此外,對于AI惡意應(yīng)用,我們一直在持續(xù)跟進(jìn),會去做相關(guān)情報搜集,并在支持客戶的過程中積累了很多經(jīng)驗(yàn)。甚至還會預(yù)演一下,比如模擬黑客,并先于實(shí)際黑客之前掌握攻擊方式,以便更早的做好防御準(zhǔn)備。

《科創(chuàng)板日報》:Sora等文生視頻的出現(xiàn)給AI視頻檢測帶來了更大的不確定性,帶出了“真的假視頻”(AI生成視頻),“假的假視頻”(真人擺拍冒充Sora生成視頻)等現(xiàn)象,具體應(yīng)該如何防范?

田天:AI合成視頻挑戰(zhàn)了人們之前眼見為實(shí)的常識,而且隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會越來越高,覆蓋面也會越來越廣。甚至很快在互聯(lián)網(wǎng)上的信息中,AI合成的假內(nèi)容可能比真實(shí)產(chǎn)生的還要多,這也是未來的趨勢,所以這個問題首先很嚴(yán)重。

對此,需要從技術(shù)和用戶兩方面共同努力:一方面,AIGC技術(shù)和產(chǎn)品的供應(yīng)商要去加強(qiáng)治理。通過技術(shù)手段如內(nèi)容水印和平臺標(biāo)識來標(biāo)明信息的真實(shí)性;另一方面,提升用戶的辨識能力,使他們能夠自主判斷所見信息的真實(shí)性。比如,我們面向個人用戶的AIGC實(shí)時檢測產(chǎn)品RealBelieve,能幫助用戶鑒別通話或網(wǎng)絡(luò)視頻中的人臉真?zhèn)危部稍谟脩魹g覽網(wǎng)頁內(nèi)容時提供AI合成可能性提示。

《科創(chuàng)板日報》:當(dāng)前大模型在哪些場景下更容易發(fā)揮作用,并面臨什么挑戰(zhàn)?

田天:大模型最適合的是內(nèi)容生產(chǎn)與創(chuàng)新類場景,但對于嚴(yán)肅場景(如生產(chǎn)力提升或決策分析)由于可控性不足而不受歡迎。由于模型頻繁出現(xiàn)錯誤或不可靠的結(jié)果,導(dǎo)致它們無法被放心地融入到工作流程中去進(jìn)行自動化操作。

我認(rèn)為未來AI特別是大模型最終會在各個行業(yè)中實(shí)現(xiàn)落地應(yīng)用,雖然目前AI落地仍存在許多問題,但這是一個大趨勢。然而,盡管現(xiàn)階段非常熱門,但大模型在實(shí)際業(yè)務(wù)場景中使用的案例相對較少。例如,在媒體行業(yè)中,實(shí)際應(yīng)用的案例并不多見。

因此,公司正致力于實(shí)現(xiàn)更安全可控的大模型系統(tǒng),使其能在不同行業(yè)中真正落地并有效使用,并已在政府、央企等多個標(biāo)桿項(xiàng)目中取得成果。

《科創(chuàng)板日報》: 安全可控的大模型能否應(yīng)對一些特殊或敏感問題,例如涉及政治、法律合規(guī)、倫理等領(lǐng)域?

田天:我們的模型通過設(shè)計和開發(fā),能夠有效應(yīng)對有意破壞或提出超常規(guī)交互的人。我們致力于在限定制度范圍內(nèi)工作,保證模型的安全可控。

此外,超級智能安全將是未來的關(guān)鍵問題,這在國內(nèi)外均處于起步階段,公司已在該領(lǐng)域投入更多資源,緊跟技術(shù)進(jìn)展。同時,隨著人工智能升級,安全威脅增大,公司也將持續(xù)提高安全領(lǐng)域的投入比例。

目前產(chǎn)品已助力金融、政務(wù)、自動駕駛等領(lǐng)域

《科創(chuàng)板日報》:中國銀行行長李禮輝表示,從金融領(lǐng)域來看,現(xiàn)在主要的問題是AI算法和模型仍然不夠清晰和透明,有待解決技術(shù)方面的缺陷。如果把不太成熟的人工智能技術(shù)投入到高風(fēng)險的金融領(lǐng)域,可能會放大現(xiàn)有風(fēng)險,并產(chǎn)生新的風(fēng)險。您怎么看?

田天:對此,我是很贊同的。如果說我們對現(xiàn)有的AI系統(tǒng)風(fēng)險沒有足夠的認(rèn)識,就貿(mào)然將其用在一些相對敏感嚴(yán)肅的場景,很有可能會造成比較嚴(yán)重的后果。所以我建議相應(yīng)的AI系統(tǒng)必須足夠安全,或者對其安全能力有足夠認(rèn)識,再去應(yīng)用到適合的場景里,以避免放大現(xiàn)有風(fēng)險或產(chǎn)生新的風(fēng)險。

《科創(chuàng)板日報》:能否介紹一些具體的金融安全方面的案例?

田天:當(dāng)下大家會通過手機(jī)銀行或者一些線上的方式刷臉,以便去驗(yàn)證身份。但由于現(xiàn)在AIGC能力很強(qiáng),網(wǎng)上相關(guān)方可以合成一個人臉,使其做張嘴、眨眼、搖頭等動作,然后通過高清屏或者直接注入的方式,欺騙身份核驗(yàn)系統(tǒng),這也帶來了很大的風(fēng)險。我們的其中一款產(chǎn)品人臉AI安全防火墻RealGuard,能夠有效檢測這種AI合成的人臉,作為現(xiàn)有系統(tǒng)的補(bǔ)充。

目前銀行客戶群體涵蓋了諸多頭部銀行,如郵儲、交行等。由于涉及客戶隱私,我們無法透露具體的減小了多少安全概率的數(shù)據(jù)。但可以根據(jù)實(shí)際效果來說,產(chǎn)品確實(shí)幫助客戶防御了大量的攻擊。

《科創(chuàng)板日報》:除了金融領(lǐng)域,公司在大模型應(yīng)用上有哪些典型案例及主要聚焦點(diǎn)?與其他專注政務(wù)、金融等領(lǐng)域的同行相比,貴公司在大模型應(yīng)用上的獨(dú)特之處在哪里?

田天:公司在政務(wù)領(lǐng)域有眾多成功案例,例如去年為北京市政府打造了政策大模型并在相關(guān)比賽中獲得第一名。此外,還在工程管理、工業(yè)生產(chǎn)、金融等領(lǐng)域開展深度探索,但大模型主要是作為現(xiàn)有工作流的改造升級和輔助改善工具,而非完全替代人類勞動力。公司的獨(dú)特之處在于提供的能力更加安全可控,這對許多領(lǐng)域的從業(yè)者來說是不具備的,同時注重提升行業(yè)原有工作流程中基于AI的新能力和應(yīng)用場景。例如,在政策比較中,利用大模型可高效準(zhǔn)確地對比不同地區(qū)政策間的異同,這是傳統(tǒng)方式難以實(shí)現(xiàn)的。

此外,我們還專注于研發(fā)自動駕駛領(lǐng)域的對抗攻防技術(shù),并已成功開發(fā)出相應(yīng)產(chǎn)品。并在多家車企和自動駕駛公司的研發(fā)階段進(jìn)行了應(yīng)用,并取得了一定的成功率,能有效防止商用系統(tǒng)在實(shí)際運(yùn)行中遭遇重大故障。

值得一提的是,如果沒有安全可控為前提,大模型就完全無法落地,從而無法應(yīng)用,這是零和一的問題,有了安全可控,才有可能實(shí)現(xiàn)大模型的應(yīng)用。

收藏
120.57W
我要評論
歡迎您發(fā)表有價值的評論,發(fā)布廣告和不和諧的評論都將會被刪除,您的賬號將禁止評論。
發(fā)表評論
要聞
股市
關(guān)聯(lián)話題
0 人關(guān)注
0 人關(guān)注
0 人關(guān)注