Der Ressourcenverbrauch von Künstlicher Intelligenz (KI) ist schon heute enorm: Besonders große Sprachmodelle (Large Language Models, LLMs) benötigen für Entwicklung und Betrieb erhebliche Rechenleistung. Ihr Training verursacht hohe CO₂‑Emissionen, und für die Kühlung der dafür eingesetzten Server wird teils eine beträchtliche Menge an Frischwasser benötigt.
Deutlich energiesparender arbeiten Small Language Models (SLMs), die für einfache und alltägliche Anfragen oft ähnlich gute Ergebnisse liefern, jedoch nur einen Bruchteil der benötigten Ressourcen verbrauchen. Was passiert also, wenn man den Energiebedarf von KI‑Modellen etwa durch eine Kennzeichnung ähnlich dem EU-Energielabel transparent macht? Und verändert diese Transparenz auch die Wahrnehmung von Qualität und Zufriedenheit? Diesen Fragen gehen Prof. Dr. Michael Klesel von der Frankfurt University of Applied Sciences (Frankfurt UAS) und Prof. Dr. Uwe Messer von der Universität der Bundeswehr (UniBw) München nach. Ihre empirische Studie „Good for the Planet, Bad for Me? Intended and Unintended Consequences of AI Energy Consumption Disclosure“ untersucht, wie Energieverbrauchskennzeichnungen die Wahl zwischen leistungsstarken, aber energieintensiven LLMs und energieeffizienten SLMs beeinflussen – und welche unbeabsichtigten Wahrnehmungseffekte dabei entstehen können.