Компания Google на конференции Google I/O представила второе поколение Tensor Processor Unit (TPU) – чипа собственной разработки для систем машинного обучения. Важным отличием второй версии является более высокая производительность и дополнительные возможности. Суть последних такова – если версия первого поколения могла лишь делать логические выводы для получения результата, например, полагаясь на Google Cloud для обработки данных в реальном времени. В то же время новинка позволяет серверам Google одновременно и делать логические выводы, и производить обучение.
Новинка уже начала внедряться в рамках платформы Google Compute Engine, используемой сторонними компаниями. Как отмечается, каждый отдельный блок TPU второго поколения обладает производительностью в 180 терафлопс, а инженерам компании удалось разместить в серверной стойке 64 блока TPU с производительностью 11,5 петафлопс. Такой себе суперкомпьютер компактного размера. Такая стойка называется TPU Pod.
Отмечается, что подобные системы смогут ускорить обучение искусственного интеллекта и будут более производительны, чем решения на базе классических, хоть и производительных GPU.
Дело в том, что ИИ-системы не программируются «от» и «до», а обучаются, формируя собственный «опыт». Чтобы научить систему выполнять какую-то задачу, сначала её нужно предоставить большое количество примеров этой деятельности. Это позволит системе обучиться работать, исходя из полученного «опыта». Используя новый Tensor Processor Unit и платформу TensorFlow, получится сократить время на отработку алгоритмов искусственного интеллекта.
Также отметим, что Google запустила программу TensorFlow Research Cloud и обещает предоставить бесплатный доступ исследователям к кластеру из 1000 блоков TPU.