Гиганты технологической отрасли создают отраслевую группу для развития компонентов следующего поколения AI-чипов

Intel, Google, Microsoft, Meta и другие ведущие технологические компании создают новую отраслевую группу, Продвигающую группу Ultra Accelerator Link (UALink), чтобы руководить развитием компонентов, объединяющих AI-чипы ускорителей в центрах обработки данных.

Анонсированная в четверг, Продвигающая группа UALink, в которую также входят AMD (но не Arm), Hewlett Packard Enterprise, Broadcom и Cisco, предлагает новый отраслевой стандарт для соединения AI-чипов ускорителей, которые находятся во все большем числе серверов. Широко определенные, AI-ускорители - это чипы, начиная от GPU до специально разработанных решений для ускорения обучения, настройки и запуска моделей AI.

"Отрасли необходим открытый стандарт, который можно было бы быстро продвигать в открытом формате, позволяющем различным компаниям добавлять ценность в целом экосистеме", - сказал журналистам на брифинге в среду Форрест Норрод, исполнительный директор по решениям для центров обработки данных компании AMD. "Отрасли нужен стандарт, который позволит инновациям двигаться на быстром ходу без препятствий отдельной компанией".

Версия один предложенного стандарта, UALink 1.0, будет соединять до 1 024 AI-ускорителей - только GPU - в рамках одного вычислительного "пода". (Группа определяет под как один или несколько стоек в сервере.) UALink 1.0, основанный на "открытых стандартах" включая Infinity Fabric от AMD, позволит напрямую загружать и сохранять данные между памятью, прикрепленной к AI-ускорителям, и в целом повысить скорость, снизив время передачи данных по сравнению с существующими техническими характеристиками межсоединения, согласно группе Продвигающей UALink.

Группа говорит, что в третьем квартале создаст консорциум UALink Consortium для того, чтобы организовать разработку спецификации UALink в будущем. UALink 1.0 будет доступен примерно в то же время для компаний, присоединившихся к консорциуму, а обновленная спецификация с более высокой пропускной способностью, UALink 1.1, появится в четвертом квартале 2024 года.

Первые продукты UALink появятся "в ближайшие пару лет", - сказал Норрод.

Из списка участников группы выдающимися отсутствует Nvidia, которая является почти самым крупным производителем AI-ускорителей с долей рынка от 80% до 95%. Nvidia отказалась комментировать данную историю. Но легко понять, почему производитель чипов не энтузиазмированно поддерживает UALink.

Во-первых, Nvidia предлагает свою собственную собственную интерконнектную технологию для соединения GPU в сервере центра обработки данных. Компании, вероятно, не так уж и много хочется поддерживать спецификацию на основе технологий конкурентов.

Кроме того, Nvidia действует из позиции огромной силы и влияния. В последнем финансовом квартале компании (Q1 2025) продажи центров обработки данных, включающие продажи ее AI-чипов, выросли более чем на 400% по сравнению с аналогичным периодом года назад. Если Nvidia будет продолжать на данном пути, она сможет обогнать Apple и стать второй по величине компанией в мире в течение этого года.

Простыми словами, Nvidia не обязана играть по правилам, если она этого не хочет.

Что касается Amazon Web Services (AWS), единственного облака гиганта, не вносящего вклад в UALink, возможно, он находится в "ждать и смотреть", пока он приходит с противопоставлением своим различным внутренним усилиям по созданию аппаратного обеспечения ускорителя. Это также может быть связано с тем, что AWS, обладающий железным контролем на рынке облачных услуг, не видит много стратегических моментов в противодействии Nvidia, которая поставляет большую часть GPU, обслуживаемых заказчикам.

AWS не ответил на запрос TechCrunch для комментариев.

Действительно, самыми большими выгодоприобретателями от UALink, помимо AMD и Intel, кажется, будут Microsoft, Meta и Google, которые в совокупности потратили миллиарды долларов на Nvidia GPU для приведения в действие своих облаков и для обучения своих постоянно растущих моделей AI. Все они стремятся удалиться от поставщика, которого они видят как беспокоительно доминирующего в экосистеме аппаратного обеспечения AI.

У Google есть специальные чипы для обучения и выполнения моделей AI, TPU и Axion. Amazon имеет несколько семейств AI-чипов в своем арсенале. Прошлый год Microsoft вступил в борьбу с Maia и Cobalt. И Meta совершенствует свою собственную линейку ускорителей.

Между тем, Microsoft и его близкий партнер, OpenAI, по информации издания, планируют потратить по крайней мере 100 миллиардов долларов на суперкомпьютер для обучения моделей AI, который будет оснащен будущими версиями чипов Cobalt и Maia. Этим чипам потребуется нечто похожее — возможно, это будет UALink.