Unit Pemprosesan Tensor

Unit Pemprosesan Tensor (TPU) ialah litar bersepadu khusus pemecut AI (ASIC) yang dibangunkan oleh syarikat Google untuk pembelajaran mesin rangkaian saraf, menggunakan teknologi perisian TensorFlow Google sendiri. [1] Google mula menggunakan TPU secara dalaman pada tahun 2015, dan pada tahun 2018 menjadikannya tersedia untuk kegunaan pihak ketiga, kedua-duanya sebagai sebahagian daripada infrastruktur awannya dan dengan menawarkan versi cip-cip yang lebih kecil untuk dijual.

Perbandingan dengan CPU dan GPU sunting

Berbanding dengan Unit Pemprosesan Grafik, TPU direka untuk volum tinggi pengiraan ketepatan rendah (contohnya, sekecil ketepatan 8-bit ) [2] dengan lebih banyak operasi input/output setiap joule, tanpa perkakasan untuk rasterisasi/pemetaan tekstur. [3] ASIC TPU dipasang dalam pemasangan heatsink, yang boleh dimuatkan dalam slot pemacu keras dalam rak pusat data, menurut Norman Jouppi . [4]

Jenis pemproses yang berbeza sesuai untuk pelbagai jenis model pembelajaran mesin. TPU sangat sesuai untuk CNN, manakala GPU mempunyai faedah untuk beberapa rangkaian saraf yang disambungkan sepenuhnya dan CPU boleh mempunyai kelebihan untuk RNN . [5]

Perbandingan dengan CPU dan GPU sunting

Berbanding dengan Unit Pemprosesan Grafik, TPU direka untuk volum tinggi pengiraan ketepatan rendah (cth. sekecil ketepatan 8-bit ) [6] dengan lebih banyak operasi input/output setiap joule, tanpa perkakasan untuk rasterisasi/Pemetaan Tekstur. [3] ASIC TPU dipasang dalam pemasangan heatsink, yang boleh dimuatkan dalam slot pemacu keras dalam rak pusat data, menurut Norman Jouppi . [4]

Jenis pemproses yang berbeza sesuai untuk pelbagai jenis model pembelajaran mesin. TPU sangat sesuai untuk CNN, manakala GPU mempunyai faedah untuk beberapa rangkaian saraf yang disambungkan sepenuhnya dan CPU boleh mempunyai kelebihan untuk RNN .

Sejarah sunting

Unit pemprosesan tensor diumumkan pada bulan Mei tahun 2016 di Google I/O, apabila syarikat itu berkata bahawa TPU telah digunakan di dalam pusat data mereka selama lebih setahun. [4] [3] Cip ini telah direka khusus untuk rangka kerja TensorFlow Google, perpustakaan matematik simbolik yang digunakan untuk aplikasi Pembelajaran Mesin seperti Rangkaian Saraf.[7] Walau bagaimanapun, sehingga 2017 Google masih menggunakan CPU dan GPU untuk jenis Pembelajaran mesin yang lain.[4] Reka bentuk Pemecut AI lain turut muncul daripada vendor lain dan disasarkan kepada pasaran Terbenam dan robotik .

TPU ciptaan Google adalah hak milik. Sesetengah model tersedia secara komersial, dan pada 12 Februari 2018, The New York Times melaporkan bahawa Google "akan membenarkan syarikat lain membeli akses kepada cip tersebut melalui perkhidmatan pengkomputeran awannya." [8] Google telah mengatakan bahawa ia digunakan dalam siri AlphaGo lawan Lee Sedol bagi permainan mesin manusia Go, [3] serta dalam sistem AlphaZero, yang menghasilkan program permainan Catur, Shogi dan Go daripada peraturan permainan sahaja dan terus menewaskan program terkemuka dalam permainan tersebut. [9] Google juga telah menggunakan TPU untuk pemprosesan teks Paparan jalan Google dan dapat mencari semua teks dalam pangkalan data Street View dalam masa kurang daripada lima hari. Dalam Foto Google, TPU individu boleh memproses lebih 100 juta foto sehari. [4] Ia juga digunakan dalam RankBrain yang digunakan oleh Google untuk menyediakan hasil carian. [10]

Google menyediakan akses pihak ketiga kepada TPU melalui perkhidmatan TPU Awannya sebagai sebahagian daripadaPlatform Google Cloud [11] dan melalui perkhidmatan berasaskan komputer ribanya Kaggle dan Colaboratory. [12] [13]

Rujukan sunting

  1. ^ "Cloud Tensor Processing Units (TPUs)". Google Cloud. Dicapai pada 20 July 2020.
  2. ^ Armasu, Lucian (2016-05-19). "Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated)". Tom's Hardware. Dicapai pada 2016-06-26.
  3. ^ a b c d Jouppi, Norm (May 18, 2016). "Google supercharges machine learning tasks with TPU custom chip". Google Cloud Platform Blog (dalam bahasa Inggeris). Dicapai pada 2017-01-22. Ralat petik: Tag <ref> tidak sah, nama "GCP blog 2016" digunakan secara berulang dengan kandungan yang berbeza
  4. ^ a b c d e "Google's Tensor Processing Unit explained: this is what the future of computing looks like". TechRadar (dalam bahasa Inggeris). Dicapai pada 2017-01-19. Ralat petik: Tag <ref> tidak sah, nama ":0" digunakan secara berulang dengan kandungan yang berbeza
  5. ^ Wang, Yu Emma; Wei, Gu-Yeon; Brooks, David (2019-07-01). "Benchmarking TPU, GPU, and CPU Platforms for Deep Learning". arXiv:1907.10701 [cs.LG].
  6. ^ Armasu, Lucian (2016-05-19). "Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated)". Tom's Hardware. Dicapai pada 2016-06-26.
  7. ^ "TensorFlow: Open source machine learning" "It is machine learning software being used for various kinds of perceptual and language understanding tasks" — Jeffrey Dean, minute 0:47 / 2:17 from Youtube clip
  8. ^ "Google Makes Its Special A.I. Chips Available to Others". The New York Times (dalam bahasa Inggeris). Dicapai pada 2018-02-12.
  9. ^ McGourty, Colin (6 December 2017). "DeepMind's AlphaZero crushes chess". chess24.com (dalam bahasa Inggeris).
  10. ^ "Google's Tensor Processing Unit could advance Moore's Law 7 years into the future". PCWorld (dalam bahasa Inggeris). Dicapai pada 2017-01-19.
  11. ^ "Frequently Asked Questions | Cloud TPU". Google Cloud (dalam bahasa Inggeris). Dicapai pada 2021-01-14.
  12. ^ "Google Colaboratory". colab.research.google.com (dalam bahasa Inggeris). Dicapai pada 2021-05-15.
  13. ^ "Use TPUs | TensorFlow Core". TensorFlow (dalam bahasa Inggeris). Dicapai pada 2021-05-15.