Eine wissenschaftliche Studie, die am Dienstag unter Aufsicht der UNESCO veröffentlicht wurde, kommt zu dem Schluss, dass der Energieverbrauch von KI durch den Einsatz kleinerer, spezialisierter Modelle und kürzerer Abfragen um 90 % gesenkt werden könnte.
Im Juni wurde bekannt, dass jede an die Anwendung „ChatGPT“ gesendete Anfrage durchschnittlich 0,34 Wattstunden Strom verbraucht, da der Chatbot täglich fast eine Milliarde Anfragen erhält.
Dies entspricht 310 Gigawattstunden pro Jahr, was dem jährlichen Stromverbrauch von drei Millionen Menschen in Äthiopien entspricht, wie aus einem Bericht der UN-Agentur hervorgeht, der auf dem Forum „AI for Good“ in Genf vorgestellt wurde.
Generative KI
Um diesen wachsenden Energieverbrauch durch den weit verbreiteten Einsatz von generativer KI zu reduzieren, empfiehlt die UNESCO, die Modellgrößen durch Komprimierungstechniken zu verringern.
Kürzere Abfragen und eine Begrenzung der Länge der KI-Modellantworten können den Energieverbrauch ebenfalls um 50 % senken, so die Studie.
Die Forscher stellten fest, dass zu diesem Zweck auch die Verwendung kleinerer Modelle anstelle großer Mehrzweck-Sprachmodelle ratsam ist.
Die Kombination beider Ansätze – kleinere Sprachmodelle mit kurzen Abfragen – kann den Energieverbrauch um 90 % senken und gleichzeitig eine hohe Relevanz gewährleisten
Tech-Giganten
Die Studie zeigte, dass tägliche Anfragen, bei denen Erklärungen von großen Mehrzweck-Sprachmodellen (mit durchschnittlich 300 Wörtern) angefordert werden, dem Stromverbrauch von 38.000 britischen Haushalten entsprechen.
Im Gegensatz dazu verbrauchen ähnliche Anfragen mit nur 150 Wörtern, die an kleinere, spezialisierte Modelle gerichtet sind, weniger Strom als 4.000 Haushalte.
In der Studie wird festgestellt, dass kleinere Modelle zwar für bestimmte Aufgaben effizienter sein können, für allgemeine Zwecke aber möglicherweise nicht so effektiv sind.
Die großen Technologieunternehmen haben dieses Energieproblem erkannt und bieten nun verkleinerte Versionen ihrer großen Sprachmodelle mit weniger Parametern an.
Google vermarktet zum Beispiel „Gemma“, Microsoft bietet „Phi-3“ und OpenAI „GPT-4o mini“