谷歌、苹果、IBM和英特尔已经建立了用于加速神经网络的神经处理器,其中大部分被部署为运行人工智能模型的协同处理器。但随着智能应用需求的增长,系统也会做出更多的调整。
人工智能
在计算机视觉的常见应用中,移动多帧高分辨率视频强调了I/O子系统。目前,架构师和计算机科学家仍在学习如何优化数据结构和数据表示。例如,如Medusa所指出的,多端口DNN加速器与宽DRAM控制器接口之间的互连。每个端口都有自己的DRAM访问权限,因此内存互连对于将宽DRAM控制器接口互连到大量窄读写端口是必要的,同时保持最大的带宽效率。
当DRAM带宽在DRAM端口上均匀分配时,DNN最有效。由于DRAM可以占总能耗的90%,最小化内存逻辑可以节省计算机成本。内存访问不仅是传统工作负载和人工智能工作负载之间的唯一区别,而且随着人工智能应用程序的复杂性,x86和ARM将变得越来越不相关。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。