Amazon innoveert op vlak van generatieve kunstmatige intelligentie door zijn eigen chips te ontwikkelen: Inferentia en Trainium. Deze chips zijn ontworpen om te concurreren met de Nvidia GPU’s, die momenteel het meest worden gebruikt om geavanceerde taalmodellen te trainen. Amazon hoopt zo de kosten te verlagen en de prestaties van zijn op AI gebaseerde cloudservices te verbeteren.
De essentie: Amazon probeert Microsoft en Google in te halen op het gebied van generatieve AI door chips te ontwikkelen die essentieel zijn voor de werking van deze technologie.
- Amazon ontwikkelt dus de Inferentia en Trainium chips, die het moeten helpen bij het creëren van op maat gemaakte oplossingen voor generatieve AI.
- Dit zijn alternatieven voor de Nvidia GPU’s voor het trainen van grootschalige taalmodellen. Sinds de opkomst van AI is het steeds moeilijker en duurder geworden om deze chips te verkrijgen. Vooral omdat Nvidia nu een supersnelle AI-processor lanceert om de concurrentie de loef af te steken.
- Dit moet Amazon vooral helpen om stand te houden tegenover Microsoft (dat achter OpenAI zit, het bedrijf dat ChatGPT heeft gelanceerd) en Google, met zijn eigen rivaal voor ChatGPT, Bard. Google heeft ook geïnvesteerd in Anthropic, een concurrerend bedrijf van OpenAI.
- Amazon onthulde pas in april, maanden na anderen, zijn eigen verzameling van grootschalige taalmodellen, genaamd Titan, evenals een dienst genaamd Bedrock om ontwikkelaars te helpen software te optimaliseren met generatieve AI.
- Maar in werkelijkheid ontwikkelt Amazon al jarenlang zijn eigen chips voor generatieve AI. AWS, het cloudservice van het bedrijf, begon al in 2013 met speciale chips met Nitro. In 2018 creëerde Amazon zijn eerste chips voor AI. Inferentia werd in 2019 op de markt gebracht, gevolgd door Trainium in 2021.
- Omdat dit een ongelooflijk veelbelovend gebied is, leidt de CEO van Amazon, Andy Jassy, persoonlijk een team voor grootschalige taalmodellen.
“De wereld heeft meer chips nodig voor generatieve kunstmatige intelligentie, of het nu GPU’s zijn of de eigen chips van Amazon die we ontwerpen. Ik denk dat we beter gepositioneerd zijn dan wie dan ook op aarde om de capaciteit te leveren die onze klanten gezamenlijk willen.”
Adam Selipsky, CEO van Amazon Web Services, in een interview met CNBC
Onderscheiden van de concurrentie
De details: Om zich te onderscheiden van de concurrentie, richt Amazon zich op de cloud als differentiërende factor:
- Het bedrijf kan vertrouwen op zijn bestaande klantenbasis van miljoenen in de cloud voor de adoptie van generatieve AI. AWS domineert immers de wereldwijde markt voor cloud computing, met een aandeel van 40 procent in 2022, volgens het gespecialiseerde technologieadviesbureau Gartner. Het overtreft ruimschoots concurrenten zoals Microsoft, Google en Alibaba.
- Deze klanten zouden kunnen worden verleid om Amazon te kiezen voor generatieve AI, omdat ze het vertrouwen en de diensten van het bedrijf goed kennen.
- Meer dan 100.000 van deze klanten maken al gebruik van machine learning op AWS.
- Maar het bedrijf leunt niet achterover en ontwikkelt een groeiend portfolio van tools voor generatieve AI voor ontwikkelaars, zoals SageMaker, CodeWhisperer en AWS HealthScribe.
- Om marktaandeel te blijven veroveren, kondigde AWS in juni een “centrum” voor generatieve AI-innovatie aan ter waarde van 100 miljoen dollar.
- Andy Jassy verklaarde bij de presentatie van de resultaten van het tweede kwartaal dat AI en de meer dan 20 machine learning-services die Amazon aanbiedt, een “zeer groot deel” van zijn bedrijf vormen, om klanten innovatieve en op maat gemaakte oplossingen te bieden.
Een obstakel? De groei van generatieve AI roept zorgen op over veiligheid en gegevensbescherming.
- Bedrijven maken zich zorgen over de vertrouwelijkheid van de gegevens die worden gebruikt om grootschalige openbare taalmodellen te trainen.
- Amazon reageert hierop door te benadrukken dat het deze zorgen wil aanpakken door zich te richten op het leveren van op maat gemaakte en beveiligde AI-oplossingen voor individuele klanten.
- “Ik kan je niet vertellen hoeveel Fortune 500-bedrijven ik ben tegengekomen die ChatGPT hebben verboden. Dus met onze aanpak van generatieve AI en onze Bedrock-service, alles wat je doet, elk model dat je via Bedrock gebruikt, zal zich in je eigen afgezonderde virtuele privé-cloudomgeving bevinden. Het zal versleuteld zijn en dezelfde AWS-toegangscontroles hebben”, zei Adam Selipsky tegen CNBC.
- Hij blijft echter nogal vaag en geeft op dit moment geen verdere details. Is dit een strategie om nieuwsgierigheid op te wekken, of om onopgeloste problemen te verbergen? Dat blijft voorlopig nog de vraag. (as)