首頁 > 資訊 > 數字化

清華系百億估值大模型公司自曝:年內已融資25億

2023/10/20 14:00      微信公眾號:量子位 衡宇  


  大模型初創公司智譜AI,自曝已完成超25億人民幣融資!

  這個數字已經高過許多AI創企的現有估值。

  更重要的是,這25億元融資只是“今年累計”,今年以前,智譜AI已經進行過(至少)3輪融資。

  難怪乎9月就已經有市場消息傳出,作為國內大模型公司的頭馬之一,智譜AI的市場估值已經在120億元左右。

  智譜官方消息稱,今年的融資將用于基座大模型的進一步研發。

  而翻看本次透露的一長串投資方,里面清晰寫著美團、螞蟻、阿里、騰訊、小米、好未來等老牌互聯網大廠的名字,還有君聯、順為、紅杉、高瓴等多家一線VC。

  量子位此前獲悉,美團、阿里、螞蟻等押注智譜,都走的是“帶業務進組”的路線,一舉將智譜的身家往上拉了不少。

  今年以來,推出1個產品+n個模型

  與GPT系列不同,智譜的模型一直走的是GLM預訓練架構路線。

  既然是今年以來的累計融資額,那么不妨一起看看今年以來,智譜在GLM系列和其他大模型上都有什么動作。

  如果要先用一句話總結一下,那就是“1個產品+n個模型”。

  1個產品,是9月末與百度文心一言、MiniMax、百川智能等多家大模型一同首批上線的AI助手App,智譜清言。

  再來看n個模型——

  3月,就在GPT-4發布的同一天,智譜官宣了千億基座的對話模型ChatGLM,并開源單卡版模型ChatGLM-6B。

  5月,具有圖片理解能力的多模態對話模型VisualGLM-6B推出網頁端試玩版。它整體模型參數量為78億,在ChatGLM-6B的基礎上完成,圖像部分則通過訓練BLIP-Qformer構建視覺和語言模型的橋梁。

  6月,ChatGLM迭代到ChatGLM2-6B,上下文長度從2k拓展到32k,允許更多輪次的對話。這個版本在次月對外開放了免費商用。

  同月,主打聯網搜索的WebGLM發布,參數100億,論文入選KDD2023。

  7月底,智譜將去年發布自有代碼模型CodeGeeX迭代到CodeGeeX2版本,同時開源CodeGeeX-6B。

  9月初,同為清華系大模型初創公司,被曝已經被智譜全資收購,并緊接著推出超擬人大模型CharacterGLM。

  事后量子位向智譜方求證,得到的答案是“智譜增持了聆心智能股份”。

  9月底,20億參數的MathGLM被提出。

  到了10月,智譜的最新動態是新發布了多模態大模型CogVLM-17B,可以“不犧牲任何NLP任務性能的情況下,實現視覺語言特征的深度融合”。

  淺淺回顧一下,智譜公司成立于2019年,核心團隊脫胎于清華KEG實驗室。

  創始成員有如今的CEO張鵬,以及清華計算機系教授唐杰等人(據悉,唐杰現在在智譜的title是技術顧問)。

  前面所提聆心智能的創始人、清華計算機系副教授黃民烈,也一直與技術團隊合作緊密。

  今年,無論是技術熱度還是資本熱度,大模型都一騎絕塵。

  而國內大模型,常被調侃的一句話就是“被清華系創業公司占去半壁江山”。

  此話倒是不假。

  目前賽道上的明星,無論是今日曝光25億融資數目的智譜,前幾日曝光累計融資3.5億的百川,還是深言科技、月之暗面、面壁智能、生數科技等,都出自清華一脈。

  同儕甚至是同門競爭,讓本來就激烈的賽道看點更足。

  不過如月之暗面創始人、清華叉院助理教授楊植麟在媒體溝通會上所說,“(大模型)里面空間非常大,大家側重點不同,技術路線也不一樣”。

  確實,很難有一家公司可以把通往AGI之路上的所有事情都做了。

  So,無論是智譜、其余清華系大模型公司,還是其他創業大模型的團隊,干就完事兒了~

  榜單收錄、高管收錄、融資收錄、活動收錄可發送郵件至news#citmt.cn(把#換成@)。

相關閱讀

99国产精品无码视频在线播放.99国产精品无码在线观看在线视频99久久国产综合精品无码&尤物久久99国产综合精品91
<蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>