圖靈巨頭現身ICLR,中國團隊三大技術趨勢引爆AGI新想象

之槐看科技 2024-05-12 04:51:20

編輯:編輯部

【新智元導讀】這幾天的維也納,上演了一場AI圈的狂歡。在ICLR 2024上,圖靈巨頭LeCun、Bengio紛紛現身,直接讓現場擠爆,變成追星現場。

這幾天,AI界的盛會——ICLR在維也納舉辦。

OpenAI、Meta、谷歌、智譜AI等世界前沿AI科技企業齊聚一堂。

現場名流雲集,星光耀眼,走幾步就能偶遇一位發過顛覆性paper的大咖。

毫無意外地,ICLR 2024展廳也變成了追星現場。熱鬧的氣氛,快把屋頂掀翻了。

現場追星圖靈巨頭

圖靈三巨頭中的著名「e人」LeCun,提前就在X上大方公布出自己的行程,滿懷期待地等著和粉絲們相見了。

在評論區,不僅有粉絲激動打卡,甚至還有准備現場遞簡曆的。

粉絲們果然不虛此行,在現場,LeCun口若懸河地講解,熱情的觀衆們在周圍形成密實的包圍圈。

言歸正傳,在整個ICLR活動上,Meta團隊將分享25余篇論文和兩個研討會。這次,LeCun團隊在ICLR上發表了以下兩篇論文。

論文地址:https://arxiv.org/abs/2305.19523

論文地址:https://arxiv.org/abs/2311.12983

另一位圖靈巨頭Yoshua Bengio,也顯示了自己的超高人氣。

現場觀衆總結道:「一個人真的需要在他的領域中做到獨一無二,才能讓他的會議室外排起如此長的隊伍!」

此前LeCun和Hinton都對此發表過言辭激烈的意見,Bengio的態度似乎一直比較模糊,迫不及待想知道他對于AGI是什麽看法了。在即將到來的5月11日,他就會在一場關于AGI的Workshop中發表演講。

值得一提的是,Bengio團隊也在今年的ICLR上獲得了傑出論文榮譽提名。

論文地址:https://openreview.net/pdf?id=Ouj6p4ca60

谷歌Meta隔壁,智譜AI也在

現場,谷歌開源模型Gema、機器人智能體背後框架Robotics Transformers,以及其他開創性的研究一並呈現。

緊挨著Meta和谷歌,展廳中間有一家非常亮眼的公司——智譜AI。

現場的童鞋正爲大家介紹GLM-4、ChatGLM等一系列研究成果。

這一系列展示,引起了衆多國外學者的圍觀。

現場的近兩千名與會嘉賓和學者,認真聽了GLM大模型技術團隊的介紹。

介紹內容包括了GLM系列大模型的多項前沿研究成果,涵蓋數學、文生圖、圖像理解、視覺UI理解、Agent智能體等領域。

在現場,大家熱烈討論起了對Scaling Law的看法。而GLM團隊,對此也有獨到見解——

「相比模型大小或訓練計算量,智能湧現和預訓練損失有更加緊密的聯系。」

比如,著名的OpenAI 996研究員Jason Wei,認真讀過智譜AI這篇講預訓練損失的論文後,表示十分贊歎。

論文中,團隊通過訓練30+個不同參數和數據規模LLM,評估了其在12個中英文數據集上的表現。

論文地址:https://arxiv.org/abs/2403.15796

結果觀察到,只有當預訓練損失低于某個阈值時,LLM會出現湧現能力。

而且,從預訓練損失的角度定義「湧現能力」,效果優于僅依賴模型參數或訓練量。

智譜AI的此番表現,也讓越來越多外國網友意識到——

19歲獲得博士的Stability AI研究主任Tanishq表示,CogVLM這類最有競爭力、爲開源生態做出重大貢獻的開源基礎模型,就是來自中國。

這位遊戲工作室的前CEO,去年就開始用CogVLM和Stable Diffusion做完整的開源版本了。

是的,自CogVLM自發布之後,其強大的能力便引起了外國網友的驚呼。

在今年1月的LLM排行榜中,也有人發現——

當時Gemini和GPT-4V遠遠領先于任何開源LLM,唯一一個例外,就是CogVLM。

可見,這波國産大模型出海,智譜AI已經悶聲不響地在國外建立了自己的巨大影響力。

特邀演講

展廳精彩演示之外,今年的ICLR,共邀請了七位特邀演講嘉賓,分享他們對AI的見解。

有來自谷歌DeepMind的研究科學家Raia Hadsell,佐治亞理工學院副教授&FAIR首席科學家Devi Parik,有來自馬克斯·普朗克計算機科學研究所(MPI-SWS)的主任Moritz Hardt,唯一一家中國團隊是智譜AI 的GLM 大模型技術團隊。

Raia Hadsell

谷歌DeepMind科學家Raia Hadsell的演講題目是——「在人工智能發展的起伏過程中學習:通向AGI道路上的意外真理」。

經過數十年的穩定發展和偶爾的挫折後,AI正處在一個關鍵的拐點。

AI産品已經爆炸式地進入主流市場,我們還未觸及到scaling紅利的天花板,因此整個社區都在探討下一步的方向。

在這次的演講中,基于20多年在AI領域的經驗,Raia探討了我們對AGI發展之路的假設,如何隨時間發展而變化。

與此同時,她還揭示了,在這個探索的過程中,我們得到的意外發現。

從強化學習到分布式架構,再到神經網絡,已經在科學領域發揮著潛在的革命性作用。

Raia認爲,通過汲取過去的經驗教訓,可以爲AI未來的研究方向提供重要的洞見。

Devi Parikh

另一邊,FAIR首席科學家Devi Parik給所有人講述了,自己生活中的故事。

從演講題目可見略知,Parik的分享內容,非比尋常。

在ICLR大會上,在解釋爲什麽技術環境是現在這個樣子時,大家會重點針對互聯網、大數據和算力的發展,展開討論。

然鵝,鮮有人關注那些微小,但重要的個人故事。

其實,每個人的故事,都可以彙聚成爲推動技術進步的重要力量。

通過這種方式,我們可以彼此學習,相互激勵。這讓我們在追求目標時,更加堅韌和高效。

Moritz Hardt

德國MPI-SWS主任Moritz Hardt帶來了「新興的科學基准」的演講。

顯然,基准測試成爲機器學習領域的「核心支柱」。

自20世紀80年代以來,雖然人類在這個研究範式下取得了諸多成就,但對其深層次的理解仍然有限。

在此次演講中,Hardt通過一系列選定的實證研究和理論分析,探索基准測試作爲一門新興科學的基本原理。

他具體討論了標注錯誤對數據質量的影響、模型排名的外部驗證性,以及多任務基准測試的前景。

與此同時,Hard還展示了許多案例研究。

這些挑戰了我們的傳統看法,還突顯了發展科學基准測試的重要性和益處。

GLM Team

中國這邊,智譜AI的GLM大模型技術團隊,也帶來了「ChatGLM通往AGI之路」的精彩演講。

值得一提的是,這也是國內「首次」在國際頂級會議上展示大模型相關的主題演講。

這次演講,首先從中國的角度,介紹AI在過去幾十年的發展曆程。

同時,他們以ChatGLM爲例,闡述自身在實踐過程中獲得的理解和洞見。

2024 AGI前瞻:GLM 4.5、 GLM-OS、 GLM-zero

在ICLR上,GLM大模型團隊介紹了面向AGI的GLM三大技術趨勢。

通往AGI的必經之路在哪裏?

業界對此意見不一。有人認爲是智能體,有人認爲是多模態,有人說,Scaling Law是通往AGI的必要非充分條件。

而LeCun堅持認爲,LLM是通往AGI的一條歧路,靠LLM帶不來AGI。

對此,團隊也提出了自己的獨特觀點。

首先,他們講到了GLM-4的後續升級版本,即GLM-4.5及其升級模型。

GLM-4的後續升級版,將基于超級認知(SuperIntelligence)和超級對齊(SuperAlignment)技術,同時在原生多模態領域和AI安全領域有長足進步。

GLM大模型團隊認爲,在通往AGI的路上,文本是最關鍵的基礎。

而下一步,則應該把文本、圖像、視頻、音頻等多種模態混合在一起訓練,變成一個真正的「原生多模態模型」。

同時,爲了解決更加複雜的問題,他們還引入了GLM-OS概念,即以大模型爲中心的通用計算系統。

這一觀點,與Karpathy此前提出的大模型操作系統的觀點,不謀而合。

在ICLR現場,GLM大模型團隊詳細介紹了GLM-OS的實現方式:

基于已有的All-Tools能力,再加上內存記憶(memory)和自我反饋(self-reflection)能力,GLM-OS有望成功模仿人類的PDCA機制,即Plan-Do-Check-Act循環。

具體來說就是,首先做出計劃,然後試一試形成反饋,調整規劃然後再行動以期達到更好的效果。

依靠PDCA循環機制,LLM便可以自我反饋和自主進化——恰如人類自己所做的一樣。

此外,GLM大模型團隊還透露,自2019年以來,團隊就一直在研究名爲GLM-zero的技術,旨在研究人類的「無意識」學習機制。

「當人在睡覺的時候,大腦依然在無意識地學習。」

GLM大模型團隊表示,「無意識」學習機制是人類認知能力的重要組成部分,包括自我學習、自我反思和自我批評。

人腦中存在著「反饋」和「決策」兩個系統,分別對應著LLM大模型和內存記憶兩部分。

因此,GLM-zero的相關研究將進一步拓展人類對意識、知識、學習行爲的理解。

盡管還處于非常早期的研究階段,但GLM-zero可以視爲通向AGI的必經之路。

而這,也是GLM大模型團隊首次向外界公開這一技術趨勢。

國內頂流技術團隊

2020年底,GLM大模型技術團隊研發了GLM預訓練架構。

2021年訓練完成百億參數模型GLM-10B,同年利用MoE架構成功訓練出收斂的萬億稀疏模型。

2022年還合作研發了中英雙語千億級超大規模預訓練模型GLM-130B並開源。

而過去一年裏,團隊幾乎每3-4個月,就完成一次基座大模型的升級,目前已經更新到了GLM-4版本。

不僅如此,作爲國內最早入局LLM公司,智譜AI曾在2023年就設立了一個雄心勃勃的目標——全線對標OpenAI。

GLM大模型技術團隊構建了基于AGI願景的完整大模型産品矩陣。

在GLM系列之外,還有CogView文生圖模型、CodeGeeX代碼模型,多模態理解模型CogVLM,再到GLM-4V多模態大模型和All-Tools功能以及AI助手智譜清言。

與此同時,GLM大模型技術團隊的研究人員,在業界有著極高的影響力。

比如,圈裏爆火的李飛飛主講斯坦福大學CS25課程,每次都會邀請Transformer研究前沿的專家,分享自己的最新突破。

而目前已經確定,CS25課程的嘉賓中,就有來自智譜AI的研究員。

CogVLM

團隊開發的開源視覺語言模型CogVLM,一經發布就引發了業界關注。

3月Stability AI公布的一篇論文就顯示,因性能太出色,CogVLM直接被Stable Diffufion 3拿來做圖像標注了。

論文地址:https://arxiv.org/abs/2403.03206

CogAgent

在此基礎之上,基于CogVLM改進的開源視覺語言模型CogAgent,主要針對的是用戶圖形界面GUI的理解。

而CogAgent的相關論文,已經被國際計算機視覺領域級別最高的學術會議CVPR 2024收錄。

要知道,CVPR以錄取嚴格著稱,今年論文錄取率只有約2.8%。

論文地址:https://arxiv.org/abs/2312.08914

ChatGLM-Math

針對LLM解決數學問題,GLM大模型團隊提出了「Self-Critique」的叠代訓練方法。

即通過自我反饋機制,幫助LLM同時提升語言和數學的能力。

論文地址:https://arxiv.org/abs/2404.02893

這一方法,包含了兩個關鍵步驟:

首先訓練一個從LLM本身生成「Math-Critique」模型,以評估模型生成數學問題答案,並提供反饋信號。

其次,通過拒絕采樣微調和DPO,利用新模型對LLM自身的生成進行監督。

GLM大模型團隊還設計了MATHUSEREVAL基准測試集,以評估新模型數學能力,結果如下:

顯而易見,新方法顯著提升了LLM的數學問題解決能力,同時仍能提升其語言能力。重要的是,它在某些情況下優于參數量增加兩倍的大模型。

GLM-4跻身全球第一梯隊

在OpenCompass 2.0基准測試中,智譜AI新一代基座大模型的實力不容小觑。

在總榜排名中,GLM-4位列第三,位居國內榜首。

在不久前SuperBench團隊發布的《SuperBench大模型綜合能力評測報告》中,GLM-4也跻身全球第一梯隊。

特別是在最關鍵的語義理解,智能體能力上,GLM-4更是國內第一,力壓一衆競爭對手。

剛剛過去的大模型元年,熱鬧非凡的百模大戰打了一年。

2024年,若想化身爲AGI元年,全世界大模型團隊還有很長的路要走。

0 阅读:0

之槐看科技

簡介:感謝大家的關注