四年前,谷歌面临着难题:如果所有用户每天都有三分钟的语音识别服务,该公司需要加倍数据中心的数量只是为了处理机器学习系统供电的所有请求这些服务。
该公司而不是购买一堆新的房地产和服务器,而不是为此目的而开始创建专用硬件,用于运行语音识别等机器学习应用程序。
结果是张量处理单元(TPU),旨在加速深神经网络的推断阶段的芯片。谷歌周三发布了一篇论文,铺设了公司在对比CPU和GPU上看到的业绩,无论是对原始的力量还是每瓦所消耗的功率的性能。
TPU在测试的机器学习推理任务中平均平均为15至30倍,而不是比较的服务器类英特尔·哈维尔CPU或NVIDIA K80 GPU测试。重要的是,TPU的每个瓦特的性能比用CPU和GPU找到的谷歌的差价为25至80倍。
大型站长资讯类网站! https://www.0833zz.com