Тензорный процессор Google (Myu[kjudw hjkeyvvkj Google)

Перейти к навигации Перейти к поиску
Тензорный процессор Google
Tensor Processing Unit 3.0
Tensor Processing Unit 3.0
Логотип Викисклада Медиафайлы на Викискладе

Тензорный процессор Google (англ. Google Tensor Processing Unit, Google TPU) — тензорный процессор, относящийся к классу нейронных процессоров, являющийся специализированной интегральной схемой, разработанной корпорацией Google и предназначенной для использования с библиотекой машинного обучения TensorFlow. Представлен в 2016 году на конференции Google I/O, при этом утверждалось, что устройства к тому моменту уже использовались внутри корпорации Google более года[1][2].

По сравнению с графическими процессорами, рассчитан на более высокий объём вычислений с пониженной точностью (например, всего 8-разрядную точность[3]) при более высокой производительности на ватт и отсутствии модуля для растризации и текстурных блоков[1][2].

Утверждается, что тензорные процессоры применялись в серии игр в го программы AlphaGo против Ли Седоля[2] и в следующих подобных поединках[4]. Также корпорация применила тензорные процессоры для обработки фотографий Google Street View на предмет извлечения текста, сообщалось, что весь объём обработан менее чем за пять дней. В Google Фото один тензорный процессор может обрабатывать более 100 миллионов фотографий в день. Также устройство применяется для самообучающейся системы RankBrain, обрабатывающей отклики поисковой системы Google.

Устройство реализовано как матричный умножитель для 8-разрядных чисел, управляемый CISC-инструкциями центрального процессора по шине PCIe 3.0. Изготавливается по технологии 28 нм, тактовая частота составляет 700 МГц и имеет тепловую расчётную мощность 28—40 Вт. Оснащается 28 Мбайт встроенной оперативной памяти и 4 Мбайт 32-разрядных аккумуляторов, накапливающих результаты в массивах из 8-битных множителей, организованных в матрицу размером 256×256. Инструкции устройства передают данные на узел или получают их из него, выполняют матричные умножения или свёртки[5]. В такт может производиться 65536 умножений на каждой матрице; в секунду — до 92 трлн[6].

Характеристики разных поколений тензорных процессоров

[править | править код]
Характеристики TPU:[7][8][9]
TPU v1 TPU v2[10] TPU v3[11] TPU v4[8][12] TPU v5e[13][14] TPU v5p[15] TPU v6 (Trillium)[16]
Дата выхода 2016 2017 2018 2021 2023 конец 2023 2024
Технологический процесс 28 нм 16 нм 16 нм 7 нм
Размер чипа (мм2) 331 < 625 < 700 < 400
Встроенная память (Мб) 28 32 32 144
Тактовая частота (МГц) 700 700 940 1050
Оперативная память 8 Гб DDR3 16 Гб HBM 32 Гб HBM 32 Гб HBM 16 Гб HBM2 95 Гб HBM2
Пропускная способность памяти 34 Гб/с 600 Гб/с 900 Гб/с 1200 Гб/с
Тепловая схема питания (Вт) 75 280 220 170
TOPS (Трлн. операций в секунду) 23 45 123 275 197 459
TOPS/Вт 0.31 0.16 0.56 1.62

Примечания

[править | править код]
  1. 1 2 "Google's Tensor Processing Unit explained: this is what the future of computing looks like". TechRadar (англ.). Архивировано 26 февраля 2022. Дата обращения: 19 января 2017. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  2. 1 2 3 Jouppi, Norm Google supercharges machine learning tasks with TPU custom chip (англ.). Google Cloud Platform Blog. Google (18 мая 2016). Дата обращения: 22 января 2017. Архивировано 18 мая 2016 года.
  3. Armasu, Lucian Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated). Tom's Hardware (19 мая 2016). Дата обращения: 26 июня 2016.
  4. The Future of Go Summit, Match One: Ke Jie & AlphaGo на YouTube, начиная с 6:03:10 (23 мая 2017)
  5. Norman P. Jouppi et al. In-Datacentre Performance Analysis of a Tensor Processing Unit (англ.). Дата обращения: 24 мая 2017. Архивировано 3 июля 2017 года. (44th International Symposium on Computer Architecture (ISCA), 2017)
  6. Ian Cutress (2017-08-22). "Hot Chips: Google TPU Performance Analysis Live Blog (3pm PT, 10pm UTC)" (англ.). AnandTech. Архивировано 23 августа 2017. Дата обращения: 23 августа 2017.
  7. Jouppi, Norman P.; Yoon, Doe Hyun; Ashcraft, Matthew; Gottscho, Mark (2021-06-14). Ten lessons from three generations that shaped Google's TPUv4i (PDF). International Symposium on Computer Architecture. Valencia, Spain. doi:10.1109/ISCA52012.2021.00010. ISBN 978-1-4503-9086-6. Архивировано (PDF) 9 июня 2021. Дата обращения: 12 марта 2023. {{cite conference}}: Неизвестный параметр |deadlink= игнорируется (|url-status= предлагается) (справка)
  8. 1 2 System Architecture | Cloud TPU (англ.). Google Cloud. Дата обращения: 11 декабря 2022. Архивировано 11 декабря 2022 года.
  9. Kennedy, Patrick (2017-08-22). "Case Study on the Google TPU and GDDR5 from Hot Chips 29". Serve The Home. Архивировано 23 ноября 2021. Дата обращения: 23 августа 2017.
  10. Блок Google TPU второго поколения в задачах машинного обучения демонстрирует производительность выше, чем у GPU Nvidia GV100 (рус.). iXBT.com (19 мая 2017). Дата обращения: 3 октября 2023. Архивировано 2 октября 2022 года.
  11. Google представила TPU 3.0 — тензорные процессоры третьего поколения (рус.). Overclockers.ru (9 мая 2018). Дата обращения: 3 октября 2023. Архивировано 3 ноября 2023 года.
  12. Stay tuned, more information on TPU v4 is coming soon Архивная копия от 12 марта 2023 на Wayback Machine, retrieved 2020-08-06.
  13. Google Cloud анонсировала новое поколение собственных ИИ-ускорителей TPU v5e (рус.). ServerNews.ru (30 августа 2023). Дата обращения: 3 октября 2023. Архивировано 20 сентября 2023 года.
  14. Expanding our AI-optimized infrastructure portfolio: Introducing Cloud TPU v5e and announcing A3 GA (англ.). Google Cloud (29 августа 2023). Дата обращения: 3 октября 2023. Архивировано 20 сентября 2023 года.
  15. Google представила Cloud TPU v5p — свой самый мощный ИИ-ускоритель (рус.). ServerNews.ru (7 декабря 2023). Дата обращения: 7 октября 2024.
  16. Шестое поколение ускорителей Google TPU v6 готово к обучению ИИ-моделей следующего поколения (рус.). ServerNews.ru (16 мая 2024). Дата обращения: 7 октября 2024.