01.12.2025
StartaiAktuelle KI-Risiken beunruhigen stärker als apokalyptische Zukunftsszenarien

Aktuelle KI-Risiken beunruhigen stärker als apokalyptische Zukunftsszenarien

Published on

Die meisten Personen sorgen sich in der Regel stärker um unmittelbare Risiken der Künstlichen Intelligenz als um eine spekulative Zukunft, in der KI die Menschheit bedroht. Wie eine neue Studie der Universität Zürich zeigt, unterscheiden die Befragten klar zwischen abstrakten Szenarien und konkreten Problemen – und nehmen letztere besonders ernst.

Es besteht ein breiter Konsens darüber, dass Künstliche Intelligenz mit Risiken verbunden ist, aber es gibt Unterschiede im Verständnis und in der Priorisierung dieser Risiken. Eine verbreitete Sichtweise betont die langfristigen, spekulativen Risiken – etwa, dass KI das Überleben der Menschheit potenziell bedroht. Eine andere konzentriert sich auf unmittelbarere Bedenken, wie KI-Systeme soziale Vorurteile verstärken oder zu Fehlinformationen beitragen. Einige befürchten, dass die Betonung dieser dramatischen «existenziellen Risiken» von den drängenderen, realen Problemen ablenken könnte, die KI bereits heute mit sich bringt.

Aktuelle und zukünftige KI-Risiken

Um diese Ansichten zu untersuchen, führte ein Team von Politikwissenschaftler:innen der Universität Zürich drei gross angelegte Online-Experimente mit über 10’000 Teilnehmenden aus den USA und Grossbritannien durch. Diese wurden mit verschiedenen Schlagzeilen konfrontiert, die KI etwa als katastrophales Risiko darstellten. Andere lasen über aktuelle Gefahren wie Diskriminierung oder Falschinformationen, wieder andere über mögliche Vorteile von KI. Ziel war es, zu untersuchen, ob Warnungen vor einer fernen Katastrophe durch KI die Aufmerksamkeit für reale, aktuelle Probleme verringern.

Grössere Besorgnis über aktuelle Probleme

«Unsere Ergebnisse zeigen, dass sich die Befragten deutlich mehr Sorgen über aktuelle KI-Risiken machen als über mögliche zukünftige Katastrophen», sagt Fabrizio Gilardi, Professor am Institut für Politikwissenschaft der UZH. Auch wenn Texte über existenzielle Bedrohungen die Angst vor solchen Szenarien verstärkten, blieb die Besorgnis über aktuelle Probleme viel höher. Dazu gehören etwa systematische Verzerrungen bei KI-Entscheidungen oder der Verlust von Arbeitsplätzen. Die Studie zeigt aber auch, dass Menschen zwischen spekulativen Gefahren und konkreten Problemen unterscheiden können – und beides ernst nehmen.

Diskurs über KI-Risiken breit führen

Die Studie schliesst damit eine wichtige Wissenslücke. In der öffentlichen Diskussion wird oft befürchtet, dass die Fokussierung auf spektakuläre Zukunftsszenarien von drängenden Gegenwartsproblemen ablenkt. Die Untersuchung liefert nun erstmals systematische Daten, die zeigen: Das Bewusstsein für reale Gefahren bleibt auch dann erhalten, wenn Menschen mit apokalyptischen Warnungen konfrontiert werden. «Unsere Studie zeigt, dass die Diskussion über langfristige Risiken nicht automatisch zu Lasten der Aufmerksamkeit für aktuelle Probleme geht», sagt Co-Autorin Emma Hoes. Fabrizio Gilardi ergänzt: «Der gesellschaftliche Diskurs über KI sollte kein Entweder-oder sein. Es braucht ein gleichzeitiges Verständnis für unmittelbare und potenzielle zukünftige Herausforderungen.»

More like this

Offene Bildung meets Schulrealität: OERs für MINTA* im Praxistest

Die OERs werden im Rahmen stattfindender Workshops ausprobiert und weiterentwickelt. Dabei begegnen wir den unterschiedlichsten Herausforderungen, aber auch wertvollen Chancen, aus denen wir viel lernen können. Hier geben wir...

TechSonar Report 2026

TechSonar aims to anticipate emerging technology trends: the main aim of this initiative is to better understand future developments in the technology sector from a data protection perspective. Based...

< recent >

< most read >

< icymi >