
中关村在在线消息:AI芯片在人工智能领域扮演者重要的作用,如何评价一款芯片的好坏以及易用性也显得至关重要,与通用处理器不同,AI处理器面向与多元化,多场景。同时提供本地端与云端的数据协作。在2018AIIA人工智能开发者大会上,基于开源社区的AIIA DNN benchmark测试标准正式出炉,并发表了白皮书。
·AIIA DNN benchmark基准测试模型将在10月底落地
据工作人员介绍,目前AIIA DNN benchmark芯片基准测试评估系统是初级版本,软件上线的时间在10月底到11月初左右,测试的标准主要集中在设备终端,但会有两套测试方向,一种是面向于通用处理器的芯片测试方案,而另外一种则是面向于专属领域人工智能芯片的测试。两套测试标准都是基于训练框架和推论框架进行协同。而从面向的群体方面来看,这套测试基准系统也会解决针对于AI使用者以及AI提供者,也就是C端到B端技术难点问题,评测将从应用场景,评测数据,深度学习模型,评测指标来展开。

AIIA DNN benchmark芯片基准测试评估系统发布
目前已知发布的这个版本为Version 0.5 ,这个版本是基于真实场景的端侧benchmark评估方案提供2种方案评测方案,即通用芯片的AI能力评估和定制化芯片的AI能力评估,涉及3类指标以及4大应用场景。具体的通用芯片的AI能力评估,是在指定场景、数据集、网络模型、框架的评测。而定制化芯片的AI能力评估将更加关注AI 芯片对于特殊场景的优化能力,如安防、自动驾驶、智能音箱等。当然在整个测试环节当中,有三项指标会作为评测跑分的重要依据,即时间指标、性能评价以及芯片功能情况。同时再图片分类,目标检测,语音识别,超分辨率四个应用场景进行综合评估。
·联合多家企业打造评测共识体系
其实基于AI芯片的性能测试跑分软件并不少见,我们熟知的阿里AI matrix、寒武纪的benchip,以及百度的deepbench等等,但这些软件其实并没有站在一个很大的角度来去串联整个人工智能芯片领域,AIIA DNN benchmark这套系统则站在了一个相对比较客观的角度来进行跑分测试。并且开源社区也在积极的联系更多具有人工智能芯片研发能力和制造的一些科技企业参与其中,通过企业的参与与完善能够加速AIIA DNN benchmarks版本的迭代。
·基于人工智能处理器测试体系的市场思考
笔者认为人工智能处理器有别于通用处理器,它的结果其实并不会过重的看重处理器性能的跑分成绩,而是这颗处理器是否能够在这个领域和当前设定的环境下帮助我们来解决相应的问题,也就是处理器是核心,而通过处理器打造的这一套人工智能系统和服务才是我们需求的关键。其实这么多年以来,人工智能跑分系统之所以目前还没有任何一家企业被公认成为做标准的行业测试体系,其原因就在于人工智能处理器的多样化因素,处理器的尺寸,功能,构架,制程不同,应用的领域、范围、特定场景不同。也就导致了人工智能处理器的复杂化。而评测体系如果想要建立好,就必须要把所有处理器可能遇到的场景和问题考虑进去。这点也正是行业难点之所在。不过,基于开源的模式固然可以让众多企业积极的参与进来,通过参与评测标准进而可以更好的更新自己的处理器产品。但因为规则制定者与参与者过多,同事也容易造成评测标准和评测机制的失衡。这些其实都是AIIA DNN benchmarks开发者需要考虑的问题。不过好在我们得知目前AIIA DNN benchmarks这套系统是免费提供。相信肯定也会有不少的企业会愿意试用。
本文属于原创文章,如若转载,请注明来源:AIIA DNN benchmark基于开源模块测试标准发布//robot.zol.com.cn/701/7011095.html























