|
|
|
|
使用微芯片的模拟嵌入式SuperFlash技术的边缘语音处理挑战
|
|
内存计算技术有望消除与在网络边缘执行人工智能(AI)语音处理相关的大规模数据通信瓶颈,但需要同时执行神经网络计算和存储权重的嵌入式内存解决方案。冠西今天通过其硅存储技术(SST)子公司宣布,其SuperFlash®memBrain™ 神经形态记忆解决方案为WITINMEM神经处理SoC解决了这个问题,这是 个批量生产的系统,使sub-mA系统能够减少语音噪声,并在通电后立即实时识别数百个命令字。 冠西已与WITINMEM合作,将Microchip基于SuperFlash技术的memBrain模拟内存计算解决方案整合到WITINMEM的超低功耗SoC中。SoC采用了用于神经网络处理的内存计算技术,包括语音识别、声纹识别、深度语音降噪、场景检测和健康状态监测。反过来,WITINMEM正与多个客户合作,在2022年将基于该SoC的产品推向市场。 WITINMEM首席执行官王绍迪(Shaodi Wang)表示:“WITINMEM正在利用冠西的memBrain解决方案开辟新天地,以解决基于高级神经网络模型的网络边缘实时人工智能语音的计算密集型需求。”。“2019年,我们率先开发了一款用于音频的内存计算芯片,现在,我们在超低功耗神经处理SoC中批量生产这项技术,实现了又一个里程碑,它简化并提高了智能语音和健康产品中的语音处理性能。” SST授权部门副总裁马克·雷滕(Mark Reiten)表示:“我们很高兴WITINMEM成为我们的主要客户,并为该公司利用我们的技术,以一款卓越的产品进入不断扩大的人工智能边缘处理市场而喝彩。”。“WITINMEM SoC展示了使用memBrain技术创建基于内存计算神经处理器的单芯片解决方案的价值,该解决方案消除了传统处理器的问题,传统处理器使用基于数字DSP和SRAM/DRAM的方法存储和执行机器学习模型。” 冠西的memBrain神经形态记忆产品经过优化,可以为神经网络执行向量矩阵乘法(VMM)。它使电池供电和深度嵌入式边缘设备中使用的处理器能够提供 的每瓦人工智能推理性能。这是通过将神经模型权重作为值存储在内存数组中,并使用内存数组作为神经计算元素来实现的。其结果是,由于不需要外部DRAM和NOR,因此功耗比其他方法低10到20倍,处理器的总体物料清单(BOM)成本也更低。 将神经模型 存储在memBrain解决方案的处理单元中,还支持实时神经网络处理的即时功能。WITINMEM利用SuperFlash技术的浮栅单元的非易失性,在空闲状态下关闭其内存中的计算宏,以在要求苛刻的物联网使用情况下进一步降低泄漏功率。 如您要了解更多冠西产品,参考:https://guanxi.diytrade.com/sdp/2954494/2/pl-7799107/0/冠西产品.html
|
|
|
|
|
|
|
|
|