DeepMentor 推出了專為語言與視覺任務優化的 Transformer 加速器。
此突破性解決方案採用我們的專利模型微型化技術,大幅降低記憶體頻寬需求。整合創新的 Encoder–Decoder 多模態 IP 架構,可靈活支援標準 DRAM 配置與多種 FPGA 平台,有效加速模型驗證流程。
支援低於 2 秒延遲的語音轉語音(S2S)多模態 LLM 應用,DeepTransformCore 提供極高的整合彈性,以滿足多樣化的應用需求,加速產品從原型驗證到實際部署的進程。
<最具成本效益的 AI 加速器>
採用成熟的 22 奈米製程,兼具良率穩定與低光罩成本,整合 2 至 4 顆 DDR4-2666 記憶體晶片以確保足夠的頻寬;並整合 SPI 接口作為微控制器的指令控制通道,以及 I²S 音訊接口實現高品質音訊串流。
此一共同設計的 AI SoC 是市場上最具成本效益的 AI 加速解決方案,可作為既有 MCU 系統的搭配晶片,無縫升級傳統裝置為 AI 智能設備。
<語音與多模態邊緣 AI 的創新應用>
DeepTransformCore 特別適用於以下邊緣 AI 應用場景:
語音控制家電、會聽會說的互動玩具、自然語言互動點餐機、智慧座艙中的語音助理、以及對話式教育機器人等。
我們的地端部署 IP 可完全消除對雲端的依賴與延遲,提供精準的語音辨識與語音輸出,同時保障使用者隱私,並實現最低功耗與最低成本的邊緣 AI 解決方案。