Fakt ist: Nicht jede Workstation kann automatisch KI. Als minimale Voraussetzung gilt es, die immensen Datenmengen der intelligenten Lern-Algorithmen zu verarbeiten. Stichwort: ausreichende Rechenleistung sowie genügend Arbeitsspeicher- und Storage-Kapazitäten.
Die konkreten Anforderungen beispielsweise für die Grafikkarte hängen wiederum von dem spezifischen Einsatz ab. Warum ausgerechnet die Grafikkarte eine so große Rolle spielt? Weil sie sich perfekt für die Beschleunigung von KI-Berechnungen eignet – speziell durch die Möglichkeit der Parallelisierung und die hohen Datendurchsätze.
Zudem bietet sie im Vergleich zu Prozessoren deutlich mehr Leistung bei wesentlich geringeren Kosten. Bei der Entwicklung und Anwendung von Künstlicher Intelligenz empfiehlt es sich, der Grafikkarte die Rolle des Co-Prozessors zu übertragen. Gerade auch deshalb, weil der Markt inzwischen speziell für KI optimierte Grafikkarten anbietet, die eine Rechenleistung von bis zu 118,5 TeraFLOPS erreichen.
Idealerweise läuft eine für KI-Aufgaben genutzte Workstation mit mindestens drei „Turbo“-Grafikkarten als Beschleuniger – ganz nach dem Motto „Je mehr, desto besser“. Das gilt im Prinzip auch für den Arbeitsspeicher. Dabei ergeben sich die RAM-Anforderungen in erster Linie aus dem sogenannten Data Engineering, also dem Aufbereiten der Daten für die Machine- oder Deep-Learning-Algorithmen.
Erfolgt das Data Engineering komplett auf externen Daten-Ressourcen wie SQL-Servern oder Spark-Umgebungen, reicht unter Umständen ein Arbeitsspeicher von 64 Gigabyte aus. Viel wahrscheinlicher jedoch ist, dass die externen Quellen die Daten auf die Workstation übermitteln, um sie dort zusammenzuführen. Dann braucht eine KI-Workstation mindestens 128 Gigabyte Arbeitsspeicher.
Und was ist mit den Storage-Kapazitäten? Sie orientieren sich bei KI nicht nach dem Ansatz „mehr“, sondern „schneller“. Denn bei der Entwicklung von KI-Algorithmen geht es vor allem um möglichst schnelle Lesevorgänge. Deshalb gilt die Ausstattung mit NVMe-SSDs als gesetzt.
Neben den „Hard Facts“ macht es für eine KI-Workstation natürlich auch Sinn, für sich selbst KI zu nutzen, insbesondere um gezielt die eigene Performance zu optimieren – beispielsweise durch die Steuerung automatischer Updates, die Verbesserung der Zuverlässigkeit oder die Bereitstellung von Analysen zur Beseitigung von Engpässen.
Genau das macht der Dell Precision Optimizer, den jede Precision Workstation mitbringt. Die auf KI-basierte Software-Lösung analysiert unter anderem mit Hilfe von Maschinellem Lernen die aktuelle Anwendungsnutzung und passt die Leistungsoptimierung automatisch so an, dass jede Applikation schneller ausgeführt wird.
Keine Frage: Vor der finalen Kauf-Entscheidung für eine spezifische Workstation lohnt sich immer ein genauer Blick auf den Hersteller und dessen Partner. Handelt es sich um einen Anbieter von Container-basierten SaaS-Lösungen für Machine Learning und Deep Learning – dann ist schon viel gewonnen.
Denn nur mit deren Lösungen lassen sich Workstations nahtlos in übergreifende KI-Infrastrukturen einbinden. Container-Technologien aber ermöglichen es, die lokal auf der Work-station ausgeführten KI-Aufgaben ohne Probleme auf Anwendungsserver oder HPC-Re-chenzentren zu portieren oder dort nachzubilden.
Nicht genug damit: Grundsätzlich sollte ein Hersteller on top den stabilen Betrieb gewährleisten – unter anderem mit umfangreichen Support-Services wie etwa ein Rund-um-die-Uhr-Zugang zu Hardware- und Software-Experten, eine fachkundige Ferndiagnose sowie unverzügliche Vor-Ort-Reparaturen. Klingt doch ganz nach der Precisions Reihe von Dell Technologies…