TPU 的設(shè)定,只能在 TensorFlow 中執(zhí)行推理,但它的性能非常好。我們認(rèn)為,TPU 與 TensorFlow 的良好適配,能夠發(fā)揮出 1+1>2 的效果。深度學(xué)習(xí)計(jì)算中的芯片部署都不是零和博弈,F(xiàn)實(shí)世界的深度學(xué)習(xí)網(wǎng)絡(luò)需要系統(tǒng)的 GPU 與其他 GPU 或諸如 Google TPU 之類(lèi)的 ASIC 通信。GPU 是理想的工作環(huán)境,具有深度學(xué)習(xí)所需的靈活性