千萬token免費送!
克雷西 衡宇 發自 凹非寺
量子位 | 公眾號 QbitAI
3月,國內外模型公司動作頻頻。國產大模型獨角獸“五小虎”之一零一萬物也有諸多新動作。
這不,前腳剛發布高性能向量數據庫,零一萬物又立馬正式發布了自己的API開放平臺,
共為開發者提供三個版本的模型:
- Yi-34B-Chat-0205:支持通用聊天、問答、對話、寫作、翻譯等功能。
- Yi-34B-Chat-200K:200K上下文,多文檔閱讀理解、超長知識庫構建小能手。
- Yi-VL-Plus:多模態模型,支持文本、視覺多模態輸入,中文圖表體驗超過GPT-4V。

去年11月,零一萬物就正式開源發布了首款預訓練大模型Yi-34B,當時的模型已經能處理200K上下文窗口,約等同于20萬字文本。這次開放API平臺,在Yi-34B的基礎上,有什么新亮點?
要說有什么獨特之處,我愿以五個“更”來概括。
分別是覆蓋更大的參數量、更強的多模態、更專業的代碼/數學推理模型、更快的推理速度、更低的推理成本。
并且!
Yi大模型API開放平臺兼容OpenAI的API,可以隨心快速絲滑切換。
更多詳情,一起來看——
200K上下文窗口+多模態能力
此次API開放,最亮眼的地方一共有兩點。
首先是200K的超長上下文窗口,可以一口氣處理約30萬個中英文字符,相對于讀完整本《哈利·波特與魔法石》小說。
在大海撈針測試中,Yi-34B-Chat-200K取得了幾乎全綠的成績,準確率高達99.8%。

實際測試中,篇幅近兩百頁、總字數19萬的《三體》第一部,Yi很快就能讀完并給出總結。

而且細節關注到位,能從故事中提取出主要角色信息和他們的事跡,然后直接用表格的形式呈現在我們面前。

我們又補充追問了十個細節問題,答案分散在整部小說的各個位置,結果Yi全部答對。

另一大亮點,是Yi-VL-Plus強大的多模態能力。
多模態版本中,在保持LLM通用知識、推理等能力的前提下,圖片內中文、符號識別能力大幅增強,體驗超過了GPT-4V。
而且圖片輸入分辨率也提高到了1024×1024分辨率,并專門針對圖表、截屏等生產力場景進行了優化。
比如下面這張圖來自一篇文獻綜述,列舉了課題相關論文中被引量最高的10篇。

Yi-VL-Plus準確地找到了目標文獻,并準確識別出了文章標題,遇到“嗪”這種不常見的專業文字也沒掉鏈子。
再看看GPT-4V這邊,則是主打一個已讀亂回,給出的文章標題不知道來自何處。

而除了識讀圖表和文字,Yi-VL-Plus還支持學習專業知識并立即用于圖像的解讀。
比如早期體驗過的開發者教給模型一些心理學知識后,Yi-VL-Plus就能根據孩子的鉛筆畫展開一些基本的分析。
并且,模型給出的分析獲得了專業人士的認可,給出了“較準確”的評價。

△開發者星云愛店CTO大董提供的測試資料,文圖數據均脫敏
總之,憑借強大的長文本和多模態處理能力,無論是在to B還是to C場景,Yi都能構建出高效的大模型應用。
舉個例子
本文鏈接:零一萬物API開放平臺出場!通用Chat多模態通通開放,還有200K超長上下文版本http://www.sq15.cn/show-2-3869-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。