WSJ: Der übersehene Beitrag der KI zur Wirtschaft in Höhe von 97 Milliarden Dollar

Die „Dividende“ der KI mag sich noch nicht in den Schätzungen des Bruttoinlandsprodukts niederschlagen, aber sie macht das Leben besser und produktiver.

Von Avinash Collis and Erik Brynjolfsson, Wallstreet Journal am 3. August 2025

https://www.wsj.com/opinion/ais-overlooked-97-billion-contribution-to-the-economy-users-service-da6e8f55

Die US-Wirtschaft ist im zweiten Quartal mit einer jährlichen Rate von 3 % gewachsen, was eine gute Nachricht ist. Bedeutet das, dass die künstliche Intelligenz ihre lang versprochenen Vorteile einlöst? Nein, denn das Bruttoinlandsprodukt ist nicht der beste Ort, um nach dem Beitrag der KI zu suchen. Doch die offiziellen Zahlen der Regierung unterschätzen den Nutzen der KI erheblich.

Im ersten Quartal 2025 sank das BIP im Jahresvergleich um 0,5%. Das Wachstum der Arbeitsproduktivität stieg 2024 um respektable, aber kaum transformative 2,3 %, nach einigen mageren Jahren mit Gewinnen und Verlusten. Ist KI überbewertet?

Nur wenn man ausschließlich das BIP betrachtet. Unsere Forschung mit Felix Eggers erweitert den Blickwinkel und stellt fest, dass die Amerikaner allein im Jahr 2024 bereits rund 97 Milliarden Dollar an „Konsumentenrente“ durch generative KI-Tools erhalten werden. Die Konsumentenrente – die Differenz zwischen dem Höchstbetrag, den ein Verbraucher für eine Ware oder Dienstleistung zu zahlen bereit ist, und dem tatsächlichen Preis – ist ein direkteres Maß für den wirtschaftlichen Wohlstand als das BIP. Die Konsumentenrente der generativen KI in Höhe von 97 Milliarden Dollar stellt die rund 7 Milliarden Dollar in den Schatten, die OpenAI, Microsoft, Anthropic und Google im vergangenen Jahr mit ihren generativen KI-Angeboten in den USA erwirtschaftet haben. Er taucht im BIP nicht auf, weil der größte Teil des Nutzens den Nutzern und nicht den Unternehmen zufließt.

Wirtschaftswissenschaftler haben diese Geschichte schon einmal gehört. Personalcomputer haben die gemessene Produktivität fast zwei Jahrzehnte lang nach ihrer Einführung auf den Schreibtischen nicht wesentlich verbessert. Robert Solow witzelte 1987: „Das Computerzeitalter ist überall zu sehen, nur nicht in den Produktivitätsstatistiken.“ ChatGPT hat in zwei Monaten 100 Millionen Nutzer erreicht, doch die Produktivität verhält sich immer noch so, als wäre es 2015 – als es den KI-Chatbot noch gar nicht gab.

Für die Verzögerung gibt es strukturelle Gründe. Die Umsetzung einer auffälligen Demo in unternehmensweite Arbeitsabläufe erfordert neue Software, Umschulung und – was am wichtigsten ist – eine Überarbeitung der Managementpraktiken. Kurzfristig zahlen viele Unternehmen doppelt: zuerst für die KI-Software und dann für die Mitarbeiter, die lernen müssen, sie zu nutzen. Die Vorteile kommen oft erst später zum Tragen, durch ergänzende Investitionen wie neu gestaltete Lieferketten oder überarbeitete Rechtsverfahren. Die Kosten werden heute gezählt, viele Vorteile kommen morgen, was zu einer J-Kurve der Produktivität führt.

Das größere Problem ist konzeptioneller Natur. Das BIP erfasst den Wert der meisten gekauften und verkauften Dinge. Aber mit wenigen Ausnahmen sind kostenlose Güter in den BIP-Zahlen unsichtbar, selbst wenn sie die Verbraucher besser stellen. Wenn ein Verbraucher einen kostenlosen Chatbot oder Bildgenerator in Anspruch nimmt, findet keine Markttransaktion statt, so dass der Nutzen, den die Nutzer daraus ziehen – eine Stunde Zeitersparnis beim Verfassen eines Schriftsatzes, die Automatisierung einer Einladung zu einer Geburtstagsfeier, Nachhilfeunterricht für ein Kind in Algebra – nicht erfasst wird. Diese Fehleinschätzung wird noch größer, wenn Menschen einen teuren Dienst wie Stockfotos durch eine kostenlose Alternative wie Bing Image Creator oder ImageFX von Google ersetzen.

Um diese Lücke zu schließen, haben wir in unserem demnächst erscheinenden Papier mit Erwin Diewert, Herrn Eggers und Kevin Fox ein Maß entwickelt, das BIP-B (B für Nutzen). Anstatt zu fragen, was die Menschen für ein Gut bezahlen, fragen wir, was man ihnen zahlen müsste, um es aufzugeben.

Ende 2024 ergab eine landesweit repräsentative Umfrage unter Erwachsenen in den USA, dass 40 % regelmäßig generative KI nutzen. Unsere eigene Umfrage ergab, dass es ihnen im Durchschnitt 98 Dollar wert ist, einen Monat lang auf diese Tools zu verzichten. Multipliziert man das mit 82 Millionen Nutzern und 12 Monaten, so ergibt sich ein Überschuss von 97 Milliarden Dollar.

William Nordhaus berechnete, dass im 20. Jahrhundert 97 % der Wohlfahrtsgewinne aus großen Innovationen den Verbrauchern und nicht den Unternehmen zugute kamen. Unsere frühen KI-Schätzungen passen zu diesem Muster. Während sich die Vorteile für die Verbraucher bereits häufen, glauben wir, dass auch das gemessene BIP und die Produktivität steigen werden. Die Geschichte zeigt, dass die Zahlen steigen, sobald die ergänzende Infrastruktur ausgereift ist.

Tyler Cowen prognostiziert einen jährlichen Produktivitätsanstieg in den USA von 0,5 %, während ein Bericht der National Academies von mehr als 1 % und Goldman Sachs von 1,5 % ausgeht. Selbst wenn die Skeptiker Recht behalten und die offiziell gemessenen BIP-Zuwächse unter 1 % liegen, wäre es falsch, die KI als Enttäuschung zu bezeichnen. Das Leben könnte sich viel schneller verbessern, als es die Tabellen vermuten lassen, vor allem für Haushalte mit geringem Einkommen, die im Verhältnis zu ihrem Grundeinkommen am meisten von kostenlosen Werkzeugen profitieren.

Da immer mehr digitale Güter kostenlos zur Verfügung stehen, wird die Messung des Nutzens und der Kosten immer wichtiger. Das Fehlen von Beweisen im BIP ist kein Beweis für das Fehlen von Beweisen im wirklichen Leben. Das Nutzenversprechen der KI befindet sich bereits in Millionen von Browser-Tabs und Smartphone-Tastaturen. Unsere statistischen Spiegel haben die Reflexion noch nicht eingefangen. Die Produktivitätsrevolution braut sich unter der Oberfläche zusammen, aber die Wohlfahrtsrevolution ist bereits im Gange.

Avinash Collis ist Assistenzprofessor am Heinz College of Information Systems and Public Policy der Carnegie Mellon University. Erik Brynjolfsson ist Professor in Stanford und Co-Vorsitzender von Workhelix, einem Unternehmen, das Möglichkeiten des maschinellen Lernens bewertet.

Übersetzt von DeepL

Das Mooresche Gesetz: Vergangenheit, Gegenwart und Zukunft im Zeitalter der Künstlichen Intelligenz

Das Mooresche Gesetz, benannt nach Gordon Moore, einem der Mitbegründer von Intel, ist eine der einflussreichsten Beobachtungen der Technologiegeschichte. Moore stellte 1965 fest, dass sich die Anzahl der Transistoren auf einem Mikrochip etwa alle zwei Jahre verdoppelt, was eine exponentielle Steigerung der Rechenleistung bei sinkenden Kosten mit sich brachte. Diese Feststellung, die als Mooresches Gesetz bekannt wurde, hat die Grundlage für die rasante Entwicklung der Informationstechnologie geschaffen, die wir heute kennen.

In den letzten Jahrzehnten konnte das Mooresche Gesetz die Computerindustrie beispiellos antreiben. Die stetig wachsende Rechenleistung ermöglichte Fortschritte in fast allen Bereichen: von der Automatisierung und der Mobiltelefonie bis hin zur komplexen Datenverarbeitung und Cloud-Computing. Prozessoren wurden kleiner, schneller und effizienter, was neue Geräteklassen wie Smartphones, Tablets und Wearables möglich machte. In den letzten Jahren hat die Entwicklung jedoch Anzeichen für eine Verlangsamung gezeigt, da die physikalischen und technischen Grenzen der Miniaturisierung erreicht wurden.

Die Auswirkungen des Mooreschen Gesetzes auf die Technologieentwicklung

Die Effekte des Mooreschen Gesetzes lassen sich in zahlreichen Branchen nachzeichnen. In der Computerwelt führte es zu schnelleren Prozessoren, die komplexere Anwendungen und Algorithmen unterstützen konnten. Dies brachte revolutionäre Fortschritte in Bereichen wie der medizinischen Bildverarbeitung, der automatisierten Datenanalyse und dem maschinellen Lernen mit sich. Zudem ermöglichte es die Entstehung des Internets, wie wir es heute kennen, und die Verbreitung mobiler Netzwerke, die unsere Gesellschaft nachhaltig beeinflusst haben.

Die wirtschaftlichen Auswirkungen waren ebenfalls enorm. Sinkende Hardwarekosten bei steigender Leistung machten Technologien für immer breitere Bevölkerungsschichten zugänglich und kurbelten Innovationen an. Unternehmen konnten produktiver werden, während neue Industrien, wie etwa die digitale Unterhaltung und E-Commerce, entstanden. Viele von Moores Prämissen haben also das digitale Zeitalter ermöglicht und geformt.

KI und das Ende des Mooreschen Gesetzes: Eine neue Ära

Mit den jüngsten Fortschritten in der Künstlichen Intelligenz (KI) tritt das Mooresche Gesetz nun in eine neue Phase ein, in der seine Rolle neu definiert werden muss. Während die physische Miniaturisierung der Transistoren immer schwieriger wird, wird das Wachstum der Rechenleistung zunehmend durch spezialisierte Hardware und Softwarelösungen vorangetrieben. Besonders im KI-Bereich spielen neuartige Architekturen wie Graphics Processing Units (GPUs) und Tensor Processing Units (TPUs) eine zentrale Rolle. Diese Hardware wurde speziell entwickelt, um die massiven Berechnungen zu bewältigen, die für maschinelles Lernen und neuronale Netzwerke erforderlich sind. In gewisser Weise hat sich das Mooresche Gesetz von der reinen Transistordichte zu einem erweiterten Konzept der Rechenleistung verschoben, in dem spezialisierte Hardware entscheidend ist.

Die Einführung der KI hat auch dazu geführt, dass die Effizienz und Optimierung von Software an Bedeutung gewinnt. Während in der Vergangenheit die Rechenleistung hauptsächlich durch Hardware-Upgrades gesteigert wurde, setzt die KI-Industrie zunehmend auf optimierte Algorithmen und neuronale Netzwerke, um die Leistung zu steigern. KI-Modelle wie GPT oder Transformer-Netzwerke sind auf hochoptimierte Architekturen angewiesen, die nicht nur auf physische Hardware, sondern auch auf spezialisierte Softwareoptimierungen angewiesen sind. Diese Entwicklung zeigt, dass das klassische Mooresche Gesetz allein nicht mehr ausreicht, um das Wachstum in der Rechenleistung zu erklären.

Ausblick: Was sich durch KI ändert

Die Ära der KI hat das Mooresche Gesetz auf eine neue Ebene gehoben, indem es die Rolle von Hardware und Software neu verteilt. Für Unternehmen bedeutet dies, dass Investitionen nicht mehr nur in bessere Hardware, sondern auch in fortschrittliche Algorithmen und spezialisierte Rechenstrukturen fließen müssen. Gleichzeitig eröffnet sich ein neues Innovationsfeld: Das Ziel ist nicht mehr nur die Steigerung der Anzahl der Transistoren, sondern die Entwicklung von Architekturen, die effizienter und anwendungsorientierter sind.

Künstliche Intelligenz könnte langfristig das Ende der klassischen Interpretation des Mooreschen Gesetzes markieren, während es die Technologieentwicklung weiter beschleunigt. Indem KI-basierte Systeme immer komplexer und leistungsfähiger werden, könnten sie schließlich eigene Optimierungsstrategien entwickeln und neue Algorithmen erfinden, die das Potenzial haben, die Rechenleistung und Effizienz weit über die Grenzen des bisherigen Mooreschen Gesetzes hinaus zu steigern. KI bringt also nicht nur neue Werkzeuge, sondern verändert auch grundlegend, wie wir über Fortschritt und Leistung denken – und könnte so die Technologieentwicklung in eine vollkommen neue Richtung lenken.

*****

Wenn Dir der Beitrag gefallen hat, gern liken oder teilen. Danke!

Über neue Beiträge automatisch informiert werden?  

Zum Beratungsangebot –> hier

KMU und Digitalisierung

Der Weg ist das Ziel

Internet für Unternehmen gab es erstmals Ende der 1990er Jahre. Dann kam die dotcom-Krise, fegte eine Vielzahl Anbieter vom Markt, und Ernüchterung setzte ein.

In der Abbildung ist das der sichtbare Absturz nach den anfänglich völlig überzogenen Erwartungen.

Wie immer bei neuen Technologien ging es danach richtig los. Mit „zunehmender Erkenntnis“ erreichte man das „Plateau der Produktivität“.

Diesem Technologiezyklus werden wir bei Künstlicher Intelligenz und Blockchain/Bitcoin wieder begegnen.

Der Start für Unternehmen ins Internet-Zeitalter begann um 2000 mit statischen Websites, Internet-Auftritt genannt. Diese wurden bald dynamisch, dann interaktiv, heute zur integrierten Business-Plattform. (Beispiel)

Die Mehrzahl der Unternehmen und Organisationen, sowie insbesondere in der Verwaltung, ist da noch lange nicht angekommen, verschenkt Produktivität und Wettbewerbsvorteile.

Bevor ein Unternehmen sich ernsthaft mit KI und demnächst Blockchain/Bitcoin befassen kann, muss es nicht nur die Grundlagen in Sachen Digitalisierung geschaffen haben, sondern fit darin sein.

Unverzichtbare Grundlagen sind, das Wissen im eigenen Unternehmen aufzubauen, eine Digitalisierungsstrategie zu verfolgen und über die notwendige Infrastruktur zu verfügen. Letzteres ist einfach und wird meist von externen Dienstleistern bereitgestellt.

Digitalisierung, KI und Blockchain/Bitcoin sind die Domänen der jungen Generation. Es gilt, im eigenen Unternehmen die zu finden, die sich für mehr als Netflix und Tik-Tok interessieren, sich schon Wissen angeeignet oder sogar schon eigene Miniprojekte realisiert haben, und nur auf eine Herausforderung warten.

Neben der Aktivierung eigener Fachkräfte auch kann die Vergabe spezifischer Praktikums- oder Abschlussarbeitsthemen an Absolventen regionaler Bildungseinrichtungen der Weg sein, um Wissen zu kumulieren und schnell umsetzbare Lösungen zu generieren.