Een consortium van techbedrijven, waaronder AMD, Intel en HPE, gaat samenwerken aan een alternatief voor Nvidia’s NVLink-interconnects. De nieuwe standaard heet Ultra Accelerator Link en moet de dataoverdracht tussen gpu’s in AI-netwerken versnellen.
Het samenwerkingsverband bestaat uit AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise, Intel, Meta en Microsoft. De bedrijven gaan werken aan een standaard waarmee data kan worden uitgewisseld tussen gpu’s in datacenters, specifiek gpu’s die bedoeld zijn voor AI-toepassingen. Ultra Accelerator Link, of UALink, moet een tegenhanger worden van Nvidia’s NVLink, dat nu veel voor die toepassingen wordt gebruikt. De technologie maakt directe dataoverdracht mogelijk tussen geheugenmodules, waarmee gegevens veel sneller kunnen worden overgedragen dan bij bijvoorbeeld met PCIe-verbindingen.
Veel specificaties over de standaard zijn nog niet bekend. De bedrijven verwachten in het derde kwartaal van dit jaar een 1.0-versie van de specificatie te hebben. Rond die tijd kunnen de eerste bedrijven UALink ook gaan gebruiken. De bedrijven zeggen dat die specificatie het mogelijk moet maken om 1024 accelerators aan elkaar te koppelen binnen een cluster.
De bedrijven die nu samenwerken, bouwen allemaal hun eigen onderdelen van AI-infrastructuur, zoals servers en chipsets. De accelerators die bedrijven als AMD nu maken, werken nog niet goed samen met de hardware van andere bedrijven, terwijl Nvidia met NVLink en zijn eigen infrastructuur wel een compleet eigen ecosysteem heeft. Door een eigen standaard te ontwikkelen hopen de bedrijven beter te kunnen concurreren met Nvidia, dat op AI-gebied de concurrentie ver achter zich laat.
Leave a Reply
You must be logged in to post a comment.