Chipmaker Nvidia slaat een nieuwe weg in en gaat toegang tot AI-chips verkopen via de clouds van techreuzen als Google en Microsoft.
Hiermee boort Nvidia een nieuwe bron van inkomsten aan die al vrij snel honderden miljoenen dollars extra omzet moet opleveren.
De chipmaker gaat zijn hardware installeren in de clouds van partijen de al datacentra in bedrijf hebben. Zij snappen hoe je specialistische serveerclusters bouwt, verkoopt en onderhoudt. Dat is een vaardigheid die de chipmaker zelf niet in huis en heeft en enkel met veel geld en lange adem zou kunnen bouwen. Daar heeft men geen trek in. Anderen liepen daar al op leeg.
CEO Jensen Huang zei dit vorige week bij de presentatie van de kwartaalcijfers.
De topman ziet dat de vraag naar AI-chips, zoals die in zijn DGX supercomputer, toenemen naarmate ontwikkelaars en bedrijven meer AI-toepassingen willen maken en gebruiken. De snelle opkomst van bijvoorbeeld de OpenAI-modellen is daar tekenend voor. Huang wil zijn hardware snel en op schaal kunnen aanbieden en werkt daarvoor met cloudpartijen samen.
Nvidia chips zijn reeds toegankelijk via Oracle Cloud. Na Google en Microsoft volgen vermoedelijk meer distributiepartners.
Dit soort ontwikkelingen op hardwarevlak laten zien dat er een speciale technische infrastructuur ontstaat voor nieuwe toepassingen rondom – wat heet – generative AI.