中國人工智能初創DeepSeek在微信公眾號公布,發布全新系列模型DeepSeek-V4 的預覽版,並同步開源。指現在開始,1M(一百萬)上下文將是DeepSeek所有官方服務的標配;又說會努力向實現AGI 的目標不斷靠近。
公司指,目前 DeepSeek-V4 已成為公司內部員工使用的 Agentic Coding 模型,據評測反饋,使用體驗優於 Sonnet 4.5,交付質量接近 Opus 4.6 非思考模式,但仍與 Opus 4.6 思考模式存在一定差距。在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro 超越當前所有已公開評測的開源模型,取得比肩世界頂級閉源模型的優異成績。
DeepSeek指,V4 開創一種全新的注意力機制,在 token 維度進行壓縮,結合 DSA 稀疏注意力(DeepSeek Sparse Attention),實現全球領先的長上下文能力,相比傳統方法,大幅降低對計算和顯存的需求。
DeepSeek在公布的最後表示:「不誘於譽,不恐於誹,率道而行,端然正己。」感謝每一位用戶的信任與支持,指大家的肯定、建議和期許,是他們不竭探索、持續進步的動力,亦令他們始終堅守初心,專注於不懈的創新。強調DeepSeek將始終秉持長期主義的原則理念,在嘗試與思考中踏實前行,努力向實現 AGI 的目標不斷靠近。