又一家大模型獨角獸公司上線API,開發者貢獻一大波酷炫Demo

科技墨鏡挨著戴 2024-03-28 05:04:54

  零一萬物Yi大模型API開放平台,正式向開發者開放了!

而在此前,Yi系列模型憑借著國際SOTA的性能、訓練成本友好和更懂中文等優勢在全世界AI社區中名聲大震,開源的Yi系列模型,已經是開源社區一股不可小觑的中國力量。

去年底,零一萬物就正式開源了Yi-34B大模型,具備了處理200K上下窗口的能力。這一次,性能更強的多模態模型,更專業的推理模型,和OpenAI API隨意切換的兼容性,以及超低的價格,都讓用戶們驚喜無限。

此次API開放平台,提供了以下三個模型,分別爲Yi-34B-Chat-0205,支持通用聊天、問答、對話、寫作、翻譯等功能;Yi-34B-Chat-200K,200K 上下文,多文檔閱讀理解、超長知識庫構建小能手;Yi-VL-Plus,多模態模型,支持文本、視覺多模態輸入,中文圖表體驗超過 GPT-4V。

在實際應用中,二十多萬字的小說,通過Yi-34B-Chat-200K就能馬上掌握作品精髓。比如王爾德的經典名著《The Picture of Dorian Gray》(道林·格雷的畫像),中文版長達20多萬字。我們把296頁的英文原著PDF扔進去,Yi-34B-Chat-200K立刻就給出了中文內容總結。

小說中的人物盤根錯節,如何能夠盡快捋出人物線索,跟Yi-34B-Chat-200K說一聲即可。模型可以在通讀幾十萬字英文後,幫你條分縷析地找出人物線索,還能按照你的要求給出中文表格。

比起GPT-4V,Yi-VL-Plus對于折線圖的分析更全面,數值也更精准。下面這張圖,比較了GPT-4和New Bing在谷歌搜索量上的變化。

Yi-VL-Plus十分精准地識別出:從2022年12月8日起,ChatGPT的百分比就開始隨著時間推進穩步增長,到2023年4月13日達到了7.2%的峰值。而代表Bing搜索的線,在同一天是百分比爲3.5%,隨後一直保持溫和緩慢增長,在2023年4月13日結束時,大約停在3.8%。

而GPT-4V讀圖的過程中就出現了重大錯誤,比如把ChatGPT 2022年11月所占的百分比識別爲了1%。但實際上圖表中的時間是從2022年12月開始的。而把Bing這段時間的百分比識別爲了3%到5%,數字也不夠精確。

開源模型、開放API、打造To C超級應用,零一萬物正在一步步踐行著CEO李開複博士的大模型商業化方法論。

0 阅读:3

科技墨鏡挨著戴

簡介:感謝大家的關注