Sakana AI推出KAME系統,延遲接近零的同時實現更深層知識注入

robot
摘要生成中

AIMPACT 消息,5 月 3 日(UTC+8),Sakana AI推出混合架構KAME,可在保持接近零延遲的同時實時注入後端LLM知識。該系統由兩個異步組件並行運行:前端基於Moshi架構的S2S模塊以約80毫秒週期處理音頻並立即生成響應;後端由STT組件和完整LLM組成,持續構建部分轉錄並生成oracle流式傳回前端,當更好oracle到達時可中途修正響應。評估顯示,單獨Moshi得分2.05,KAME+gpt-4.1得分6.43,KAME+claude-opus-4-1得分6.23,延遲均與Moshi相當;領先級聯系統Unmute得分7.70但延遲達2.1秒。KAME後端無關,支持在推理時切換LLM而無需重新訓練。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆