Ihr müsst halt zwischen der Funktion (im Groben: Software) und Hardware unterscheiden.

In der Software dann zwischen generativer Ai und klassischem ML für z.B. Pattern Recognition.
Oder beides zusammen, wie nun auch üblich.

Software sind alle dabei, von den üblichen 'alten' (MS/Apple/Google/IBM/Amazon/Tesla/usw)
bis zu den 'jungen Wilden' (OpenAI/AlephAlpha/x1000 Startups).

Hardware wird dominiert von Nvidia, da fast alle universellen AI-Frameworks per CUDA mit
der Hardware reden, das ist 100% Nvidia. Nicht gut, da es von z.B. AMD bessere Hardware gibt
was Preis/Leistung angeht. Ausserdem ist NVidia nicht gerade als Fair Player bekannt, haben mit
denen schon (sehr) viel Mist erlebt.

Einige der Big Player haben daher eigene Spezialprozessoren entwickelt, so z.b. Google. Die 500 Mio
zur Entwicklung und Umsetzung einer eigenen NPU rechnen sich bei entsprechend eingesparten
Nvidias tatsächlich.

Für Cloudkunden bieten alle praktisch nur Nvidia an, da CUDA, s.o.

Ab einer gewissen Nutzung lohnt sich dann Mieten in der Cloud nicht mehr und man baut halt
schnell ein eigenes RZ mit paar 1000 GPUs und Restkram drum herum. Macht auch Spass.


VG,

Michael