Nvidia анонсировала поставки на корпоративный рынок специализированных ускорителей Tesla M40 (GM200) и Tesla M4 (GM206), которые “ускоряют алгоритмы машинного обучения для дата-центров интернет-компаний”. Цифра “3” весьма точно характеризует разницу в производительности новинок – именно во столько раз арсенал Tesla M40 превосходит таковой у модели Tesla M4: 3072 потоковых процессоров Maxwell против 1024, 384-битная шина памяти против 128-битной, 12 ГБ GDDR5 против 4 ГБ GDDR5.
Тем не менее имеется небольшое различие в рабочих частотах (опять-таки в пользу Tesla M40) и уровне TDP, который у Tesla M4 находится в диапазоне 50-75 Вт. Охлаждение у обоих ускорителей пассивное, поскольку они рассчитаны на установку в серверные системы с высокооборотистыми вентиляторами. Кроме того, стоит отметить, что M4 является низкопрофильным адаптером.
“Гонка за искусственный интеллект уже началась, – говорит Дженсен Хуанг (Jen-Hsun Huang), соучредитель и генеральный директор NVIDIA. – Сегодня машинное обучение, несомненно, является одной из важнейших областей развития вычислений, о чем бы ни шла речь – о ПК, Интернете или “облаках”. Революционные изменения уже коснулись ряда облачных сервисов, автомобильной отрасли и здравоохранения”.
“Машинное обучение – одна из важнейших вычислительных задач, стоящих перед нашим поколением. Мы создали линейку специализированных ускорителей Tesla, чтобы сообщить машинному обучению десятикратное ускорение. Экономия времени и затрат будет весомой”, – добавляет г-н Хуанг. (Nvidia/NovostIT)