Rechenzentren durch maschinelles Lernen optimieren

Google hat ein Papier veröffentlicht, das den Ansatz zur Nutzung des maschinellen Lernens, eines neuronalen Netzes, zur Reduzierung des Energieverbrauchs in Rechenzentren beschreibt. Joe Kava, VP, Rechenzentrum bei Google, hat auch einen Blogbeitrag, der die Hintergründe und die Funktionsweise erklärt. Google hat eines der besten Rechenzentrumsdesigns der Branche und nimmt die PUE-Werte (Power Usage Effectiveness) sehr ernst.

Ich habe vor fast fünf Jahren über Googles Ansatz zur Optimierung von PUE gebloggt! Google hat einen langen Weg zurückgelegt, und ich hoffe, dass sie weiterhin so wertvolle Informationen in der Öffentlichkeit veröffentlichen.

Es gibt ein paar wichtige Anhaltspunkte:

In seiner Präsentation bei Data Centers Europe 2014 sagte Joe:
Was die Hardware betrifft, so benötigt maschinelles Lernen laut Kava keine ungewöhnliche Rechenleistung, da es auf einem einzigen Server läuft und sogar auf einem High-End-Desktop laufen kann.
Dies ist ein hervorragendes Beispiel für ein großes Datenproblem mit kleinen Datenmengen.

Dieses neuronale Netz ist ein Ansatz für überwachtes Lernen, bei dem man ein Modell mit spezifischen Attributen erstellt, um die kollektive Wirkung dieser Attribute zu bewerten und zu optimieren, um das gewünschte Ergebnis zu erreichen.

Im Gegensatz zu einem Expertensystem, bei dem ein logikgesteuerter Ansatz im Vordergrund steht, lernen neuronale Netze kontinuierlich aus den zugrundeliegenden Daten und werden auf ihr prognostiziertes Ergebnis getestet. Das Ergebnis hängt nicht davon ab, wie groß Ihr Datenbestand ist, solange er für relevante Datenpunkte mit guter Historie ausreicht.

Der „große“ Teil großer Daten führt die Leute in die Irre, wenn sie glauben, dass sie einen ziemlich großen Datensatz benötigen, um zu beginnen. Diese Optimierung entlarvt diesen Mythos.

Das andere Faszinierende an Googles Ansatz ist, dass sie nicht nur maschinelles Lernen nutzen, um die PUE aktueller Rechenzentren zu optimieren, sondern auch, um zukünftige Rechenzentren effektiv zu gestalten.

Wie bei vielen anderen physischen Systemen gibt es bestimmte Attribute, über die Sie die operative Kontrolle haben und die relativ einfach zu ändern sind, wie z. B: Kühlsysteme, Serverlast, etc. Es gibt jedoch einige Attribute, die Sie nur während der Entwurfsphase kontrollieren können, z.B. Physikalisches Layout:Wenn Sie sich für den Bau eines Rechenzentrums in Oregon entscheiden, können Sie es nicht einfach nach Colorado verlegen. Diese neuronalen Netze können einen wesentlichen Beitrag dazu leisten, im Voraus irreversible Entscheidungen zu treffen, die später nicht mehr abgestimmt werden können.

Eine der Herausforderungen bei neuronalen Netzen oder vielen anderen überwachten Lernmethoden besteht darin, dass es zu viel Zeit und Präzision braucht, um das Modell zu perfektionieren (zu trainieren).

Joe beschreibt es als „nichts weiter als eine Reihe von Differentialgleichungen“ und spielte das Modell herunter. Neuronale Netze sind nützlich, wenn man weiß, wonach man sucht – in diesem Fall, um die PUE zu senken. In vielen Fällen weiß man nicht einmal, wonach man sucht.

Google nennt 19 Attribute, die die PUE beeinflussen. Ich frage mich, wie sie diese Attribute in die engere Wahl gezogen haben. Meiner Erfahrung nach ist unbeaufsichtigtes maschinelles Lernen ein guter Ort, um Attribute in die engere Auswahl zu nehmen und dann mit überwachtem maschinellen Lernen fortzufahren, um sie zu verfeinern. Unbeaufsichtigtes maschinelles Lernen kombiniert mit überwachtem maschinellen Lernen kann bei richtiger Anwendung noch bessere Ergebnisse erzielen.

Rechenzentren durch maschinelles Lernen optimieren Read More »