Orbitale Gehirne: Der Wandel von der Weltraumkommunikation zur Weltraumintelligenz

Im letzten halben Jahrhundert wurde die Beziehung der Menschheit zu Satelliten durch Kommunikation definiert. Wir schießen Metallkisten in die Leere, die als hochentwickelte Spiegel fungieren und TV-Signale, GPS-Daten und Internetpakete von einem Punkt der Erde zum anderen reflektieren. Sie sind das Nervensystem unserer Wirtschaft, aber sie sind passiv – sie übertragen, aber sie „denken“ nicht.

Elon Musks jüngster Vorschlag, KI-Datenzentren im Orbit zu platzieren, stellen einen fundamentalen Paradigmenwechsel dar. Diese Vision schlägt eine neue duale Architektur für den Weltraum vor: massive, autonome Datenzentrumseinheiten, die von Starship gestartet werden, um Intelligenz zu generieren, und eine separate Starlink V3-Konstellation, die als optisches Hochgeschwindigkeits-Nervensystem fungiert, um diese zu übertragen. Dieser Schritt vom Verbinden der Welt zum Verarbeiten der Welt ist nicht nur ein logistisches Upgrade; es ist eine notwendige Evolution für eine KI-abhängige Zivilisation, die an die physischen Grenzen der Erde stößt.

Der irdische Engpass

Um zu verstehen, warum wir KI-Datenzentren im Weltraum brauchen, muss man zuerst die Einschränkungen am Boden betrachten. Die derzeitige Explosion der künstlichen Intelligenz ist im Grunde eine getarnte Energiekrise. Das Training eines einzigen KI-Flaggschiffmodells verbraucht Gigawattstunden an Strom, und da die Modelle exponentiell wachsen, brechen die irdischen Stromnetze unter der Last zusammen.

KI-Zentren auf der Erde führen einen Krieg an zwei Fronten: Energie und Wärme. Um die massiven GPU-Cluster zu betreiben, die für moderne KI erforderlich sind, benötigt man Zugang zu riesigen Mengen an Elektrizität und Millionen von Gallonen Wasser zur Kühlung der Server. Wir nähern uns schnell einem Punkt, an dem der Bau von Computerclustern der Terawatt-Klasse auf der Erde aufgrund von Landnutzung, Netzkapazität und Umweltbelastung geologisch und ökonomisch unmöglich wird.

Der Weltraum bietet eine elegante, wenn auch technisch schwierige Lösung:

  1. Unbegrenzte Energie: Im Orbit werden Solarpaneele nicht durch Wolken, Atmosphäre oder Nachtzyklen (abhängig vom Orbit) behindert. Die Sonne ist ein Fusionsreaktor, der niemals blinzelt und einen kontinuierlichen Strom von hochintensiver Energie liefert, ideal für Anlagen im Gigawatt-Bereich.
  2. Strahlungskühlung: Während das Wärmemanagement im Vakuum knifflig ist, bietet der Weltraum eine unendliche Wärmesenke. Mit den richtigen Radiatordesigns kann Wärme abgeleitet werden, ohne einen einzigen Tropfen Wasser zu verbrauchen.

Die Architektur: Prozessoren und Leitungen

Faszinierend – die Verbesserung der Intelligenz anstatt nur der Kommunikation –, beruht auf einer Aufgabenteilung im Orbit. In diesem Modell sind das „Gehirn“ und die „Nerven“ getrennte, spezialisierte Einheiten.

  1. Die orbitalen Gehirne (Die Datenzentren): Dies sind keine Standard-Satelliten. Es sind massive, industrielle Anlagen. Zu schwer und energiehungrig für herkömmliche Raketen, beherbergen diese dedizierten Einheiten die schweren Rechenlasten. Sie sind so konzipiert, dass sie im permanenten Sonnenschein schweben und Gigawatt an Energie ernten, um Trainingsläufe und Inferenzmodelle durchzuführen, die auf der Erde die Lichter einer mittelgroßen Stadt dimmen würden.
  2. Das Nervensystem (Starlink V3): Diese Datenzentren können nicht isoliert funktionieren. Sie müssen mit der Erde und untereinander sprechen. Hier kommt die Starlink V3-Konstellation ins Spiel. Als Kommunikations-Rückgrat nutzen diese Satelliten optische Laserverbindungen, um Daten zu und von den schweren Computereinheiten zu beamen.

Diese Struktur erlaubt es den Datenzentren, sich rein auf rohe Rechenleistung zu konzentrieren, während das Starlink-Netzwerk das komplexe Routing dieser Intelligenz zur Oberfläche übernimmt.

Der Wegbereiter Starship

Dieses gesamte Ökosystem ist ohne Starship unmöglich. Der Unterschied zwischen einem „Satelliten“ und einem „Datenzentrum“ ist die Masse. Ein Kommunikationssatellit mag zwei Tonnen wiegen; ein bedeutendes KI-Datenzentrum wiegt Hunderte.

Herkömmliche Raketen könnten niemals die Abschirmung, Stromversorgung und Kühlanlagen heben, die für eine orbitale Anlage der 1-GW-Klasse erforderlich sind. Starship fungiert als „Güterzug“ für diese neue industrielle Revolution. Es ist das einzige Vehikel mit der Nutzlastkapazität, um diese massiven, eigenständigen RComputermodule in den Orbit zu hieven. Wenn weltraumgestützte Berechnungen innerhalb von fünf Jahren die „kostengünstigste Option“ werden, dann deshalb, weil Starship die Kosten für den Transport schwerer Infrastruktur trivialisiert hat, was uns erlaubt, „Serverfarmen“ im Himmel zu bauen, anstatt nur empfindliche Instrumente zu starten.

Ein Sprungbrett zum Mars

Schließlich dient dieser Plan dem doppelten Zweck, der alle Unternehmungen von Musk antreibt: dem Mars. Eine Zivilisation, die sich über mehrere Planeten erstreckt, kann sich nicht auf eine einzige Internetverbindung zurück zur Erde verlassen. Die Latenz zwischen Erde und Mars (die zwischen 3 und 22 Minuten variiert) macht Echtzeit-Cloud-Computing unmöglich.

Durch den Einsatz dieser autonomen, solarbetriebenen Datenzentren im Erdorbit entwickelt SpaceX im Grunde einen Prototyp der digitalen Infrastruktur, die für eine Marskolonie erforderlich ist. Wenn die Menschheit expandieren soll, können wir nicht nur unsere Körper mitbringen; wir müssen unseren digitalen Verstand mitbringen, untergebracht in robusten, unabhängigen Gefäßen, die fähig sind, für sich selbst zu denken.

Fazit

Die Voyager-Sonden, die in den 1970er Jahren mit einer Technologie gestartet wurden, die weit primitiver war als die heutige, sind fast ein halbes Jahrhundert später immer noch am Rande unseres Sonnensystems operativ. Wenn wir eine solche Langlebigkeit bereits vor Jahrzehnten erreichen konnten, ist das Potenzial für moderne, zweckgebundene orbitale Datenzentren immens. Mit der Fähigkeit von Starship, schwere, abgeschirmte Infrastruktur zu transportieren, und der inhärenten Redundanz eines verteilten Netzwerks überwinden wir nicht nur die physischen Grenzen des irdischen Computings – wir bauen ein widerstandsfähiges, unvergängliches Nervensystem für die Menschheit zwischen den Sternen.

Erstellt in Kooperation mit Gemini3

WSJ: KI und der Jungbrunnen

Technologische Fortschritte könnten den Alterungsprozess umkehren und die durchschnittliche Lebenserwartung um mindestens ein Jahrzehnt verlängern.

By David B. Agus, 8. Oktober 2025

Eine aktuelle Studie der Stanford University ergab, dass der menschliche Körper im Laufe der Zeit nicht allmählich mit gleicher Geschwindigkeit altert. Stattdessen durchläuft der Körper im Alter von etwa 44 und 60 Jahren große biologische Veränderungen – mit anderen Worten, das Altern. Nachdem ich gerade diesen zweiten Meilenstein mit einer ersten Hautkrebsdiagnose und zwei Rückenoperationen in diesem Jahr überschritten habe, kann ich bestätigen, dass das Altern nicht kriecht. Es stürzt sich.

Seit Generationen akzeptieren wir diesen Niedergang als unvermeidlich. Aber diese Annahme trifft möglicherweise nicht mehr zu. Science-Fiction wird Realität.

Eine Studie, die letzten Monat in der medizinischen Zeitschrift Cell veröffentlicht wurde, beschreibt ein bemerkenswertes Experiment, bei dem Forscher der Chinesischen Akademie der Wissenschaften und der Medizinischen Hauptstadtuniversität in Peking einen Typ menschlicher Stammzellen, mesenchymale Vorläuferzellen, genetisch veränderten und sie in Affen infundierten. Über 44 Wochen zeigten das Gehirn, die Knochen und das Fortpflanzungsgewebe der Tiere messbare Anzeichen von nicht nur einer gestoppten Alterung, sondern auch einer signifikanten Verjüngung. Die Entzündung nahm ab, die Zellfunktion verbesserte sich und es traten keine schädlichen Auswirkungen auf.

Noch erstaunlicher ist, dass die Forscher, als sie die Exosomen – winzige molekulare Kommunikationspakete, die von den veränderten Stammzellen abgesondert wurden – aus diesen Zellen sammelten, während die Zellen in einer Petrischale wuchsen, feststellten, dass diese Exosomen allein einen Großteil des Anti-Aging-Effekts bei den Affen replizieren konnten. Forscher verlangsamen nicht nur das Altern; sie lernen, es umzukehren.

Künstliche Intelligenz übertreibt diesen Ehrgeiz. Dank der KI wird der Prozess der Identifizierung und Entwicklung neuer Medikamente, einmal pro Jahrzehnt, in Monaten komprimiert. KI kann Moleküle so entwerfen, dass sie auf bestimmte Regionen eines Proteins abzielen, simulieren, wie sie sich im Körper verhalten, massive Rechenleistung nutzen, um sicherzustellen, dass sie sich an nichts anderes im Körper binden, und Immunreaktionen auf die Medikamente vorhersagen – alles, bevor eine einzige klinische Studie am Menschen beginnt. Diese Konvergenz von Berechnung und Biologie wird eine Ära nicht nur der Heilung von Krankheiten, sondern auch ihrer vollständigen Verhinderung einlöhnen. KI ermöglicht es Wissenschaftlern, biologische Wege zu erreichen, die die Medizin vorher nicht einmal berühren konnte.

KI revolutioniert auch das Verständnis unserer persönlichen Gesundheit. Große Sprachmodelle können jetzt elektronische Krankenakten – digitale Junk-Schubladen mit unstrukturierten Arzt- und Krankenschwesternnotizen – in saubere, strukturierte Datensätze analysieren, die leichter zu analysieren sind.

KI und Big Data helfen auch dabei, Muster aufzudecken, die Menschen vielleicht nie erkennen. Eine frühe Erkenntnis aus aktuellen Studien in den Nature-Zeitschriften: Die Gürtelrose-Impfstoffe Zostavax und Shingrix können das Risiko eines kognitiven Verfalls im späteren Leben verringern.

KI hat auch die molekularen Fingerabdrücke von Krankheiten durch die Interpretation medizinischer Bilder erkannt – einschließlich Röntgenaufnahmen, MRTs, Ultraschall und Pathologiefolien. Genmutationen, die das Wachstum steuern, verändern das Aussehen einer Krebszelle, und das kann durch KI erkannt werden. Es erkennt die subtilen Muster der Zellstrukturen und Beziehungen zu anderen Zellen (im Vergleich zu einer normalen Zelle ohne Mutation) in wenigen Minuten und teilt Onkologen mit, welches Gen den Tumor antreibt. Dies ermöglicht es Ärzten, den Krebs jedes Patienten mit Medikamenten abzugleichen, die auf das spezifische Gen abzielen, das ihn antreibt.

Neben der Diagnose werden auch intelligente Maschinen die Pflege neu gestalten. Humanoide Roboter könnten älteren oder kranken Menschen helfen. Die Fernüberwachung und die tragbaren Sensoren sammeln kontinuierlich Daten und markieren Gesundheitsprobleme, bevor Symptome auftreten. Autonome oder halbautonome KI-Systeme werden die Gesundheitsversorgung und -verwaltung kostengünstiger, effizienter und zugänglicher machen.

Trotzdem ein Wort der Vorsicht. Der Markt wird bereits mit „Langlebigkeitsärzten“, Stammzellinfusionen, Exosomentherapien und Wunderpräparaten überschwemmt. Keiner hat sich als sicher oder wirksam erwiesen. Jede Behandlung, die in einem Einkaufszentrum angeboten oder als Lebensverlängerung vermarktet wird, verdient sofortige Skepsis. Echte Fortschritte werden nicht von Hype kommen, sondern von rigoroser Wissenschaft und reproduzierbaren Ergebnissen mit behördlicher Aufsicht.

Die Auswirkungen der Lebensverlängerung sind tiefgreifend und gehen weit über die Medizin hinaus. Die körperliche Gesundheit kann ohne die gleiche Aufmerksamkeit für die emotionale, ethische und wirtschaftliche Gesundheit nicht vorankommen. Eine Welt, in der die Menschen deutlich länger leben, erfordert ein neues Wirtschaftsmodell, das sich auf eine generationenübergreifende, mehrstufige Beschäftigung konzentriert, in der eine Person verschiedene Karrieren verfolgen kann, die für verschiedene Lebensphasen geeignet sind, anstatt den traditionellen dreistufigen Bogen von Bildung, Arbeit und Ruhestand. Eine solche Welt würde auch einen neuen Respekt vor dem Altern erfordern.

Politische Entscheidungsträger, Aufsichtsbehörden, Versicherer und Pensionsfonds sollten beachten: Wenn die Wissenschaft ihr Versprechen einhält, könnten die Menschen ein Jahrzehnt oder länger leben – und diese Jahre würden bei guter Gesundheit verbracht werden. Das wirft schwierige Fragen auf: Macht der Ruhestand mit 65 noch Sinn? Wie finanzieren wir längere Leben und halten sie zielgerichtet? Wir haben eine solche Zukunft nicht geplant, und es ist an der Zeit, damit anzufangen.

Das Altern, einst eine Unvermeidlichkeit, wird zu einer Grenze. Und zum ersten Mal bietet die Wissenschaft Grund zu der Hoffnung, dass die Zukunft jünger sein könnte, als sie aussieht.

Übersetzt mit DeepL

WSJ: Der übersehene Beitrag der KI zur Wirtschaft in Höhe von 97 Milliarden Dollar

Die „Dividende“ der KI mag sich noch nicht in den Schätzungen des Bruttoinlandsprodukts niederschlagen, aber sie macht das Leben besser und produktiver.

Von Avinash Collis and Erik Brynjolfsson, Wallstreet Journal am 3. August 2025

https://www.wsj.com/opinion/ais-overlooked-97-billion-contribution-to-the-economy-users-service-da6e8f55

Die US-Wirtschaft ist im zweiten Quartal mit einer jährlichen Rate von 3 % gewachsen, was eine gute Nachricht ist. Bedeutet das, dass die künstliche Intelligenz ihre lang versprochenen Vorteile einlöst? Nein, denn das Bruttoinlandsprodukt ist nicht der beste Ort, um nach dem Beitrag der KI zu suchen. Doch die offiziellen Zahlen der Regierung unterschätzen den Nutzen der KI erheblich.

Im ersten Quartal 2025 sank das BIP im Jahresvergleich um 0,5%. Das Wachstum der Arbeitsproduktivität stieg 2024 um respektable, aber kaum transformative 2,3 %, nach einigen mageren Jahren mit Gewinnen und Verlusten. Ist KI überbewertet?

Nur wenn man ausschließlich das BIP betrachtet. Unsere Forschung mit Felix Eggers erweitert den Blickwinkel und stellt fest, dass die Amerikaner allein im Jahr 2024 bereits rund 97 Milliarden Dollar an „Konsumentenrente“ durch generative KI-Tools erhalten werden. Die Konsumentenrente – die Differenz zwischen dem Höchstbetrag, den ein Verbraucher für eine Ware oder Dienstleistung zu zahlen bereit ist, und dem tatsächlichen Preis – ist ein direkteres Maß für den wirtschaftlichen Wohlstand als das BIP. Die Konsumentenrente der generativen KI in Höhe von 97 Milliarden Dollar stellt die rund 7 Milliarden Dollar in den Schatten, die OpenAI, Microsoft, Anthropic und Google im vergangenen Jahr mit ihren generativen KI-Angeboten in den USA erwirtschaftet haben. Er taucht im BIP nicht auf, weil der größte Teil des Nutzens den Nutzern und nicht den Unternehmen zufließt.

Wirtschaftswissenschaftler haben diese Geschichte schon einmal gehört. Personalcomputer haben die gemessene Produktivität fast zwei Jahrzehnte lang nach ihrer Einführung auf den Schreibtischen nicht wesentlich verbessert. Robert Solow witzelte 1987: „Das Computerzeitalter ist überall zu sehen, nur nicht in den Produktivitätsstatistiken.“ ChatGPT hat in zwei Monaten 100 Millionen Nutzer erreicht, doch die Produktivität verhält sich immer noch so, als wäre es 2015 – als es den KI-Chatbot noch gar nicht gab.

Für die Verzögerung gibt es strukturelle Gründe. Die Umsetzung einer auffälligen Demo in unternehmensweite Arbeitsabläufe erfordert neue Software, Umschulung und – was am wichtigsten ist – eine Überarbeitung der Managementpraktiken. Kurzfristig zahlen viele Unternehmen doppelt: zuerst für die KI-Software und dann für die Mitarbeiter, die lernen müssen, sie zu nutzen. Die Vorteile kommen oft erst später zum Tragen, durch ergänzende Investitionen wie neu gestaltete Lieferketten oder überarbeitete Rechtsverfahren. Die Kosten werden heute gezählt, viele Vorteile kommen morgen, was zu einer J-Kurve der Produktivität führt.

Das größere Problem ist konzeptioneller Natur. Das BIP erfasst den Wert der meisten gekauften und verkauften Dinge. Aber mit wenigen Ausnahmen sind kostenlose Güter in den BIP-Zahlen unsichtbar, selbst wenn sie die Verbraucher besser stellen. Wenn ein Verbraucher einen kostenlosen Chatbot oder Bildgenerator in Anspruch nimmt, findet keine Markttransaktion statt, so dass der Nutzen, den die Nutzer daraus ziehen – eine Stunde Zeitersparnis beim Verfassen eines Schriftsatzes, die Automatisierung einer Einladung zu einer Geburtstagsfeier, Nachhilfeunterricht für ein Kind in Algebra – nicht erfasst wird. Diese Fehleinschätzung wird noch größer, wenn Menschen einen teuren Dienst wie Stockfotos durch eine kostenlose Alternative wie Bing Image Creator oder ImageFX von Google ersetzen.

Um diese Lücke zu schließen, haben wir in unserem demnächst erscheinenden Papier mit Erwin Diewert, Herrn Eggers und Kevin Fox ein Maß entwickelt, das BIP-B (B für Nutzen). Anstatt zu fragen, was die Menschen für ein Gut bezahlen, fragen wir, was man ihnen zahlen müsste, um es aufzugeben.

Ende 2024 ergab eine landesweit repräsentative Umfrage unter Erwachsenen in den USA, dass 40 % regelmäßig generative KI nutzen. Unsere eigene Umfrage ergab, dass es ihnen im Durchschnitt 98 Dollar wert ist, einen Monat lang auf diese Tools zu verzichten. Multipliziert man das mit 82 Millionen Nutzern und 12 Monaten, so ergibt sich ein Überschuss von 97 Milliarden Dollar.

William Nordhaus berechnete, dass im 20. Jahrhundert 97 % der Wohlfahrtsgewinne aus großen Innovationen den Verbrauchern und nicht den Unternehmen zugute kamen. Unsere frühen KI-Schätzungen passen zu diesem Muster. Während sich die Vorteile für die Verbraucher bereits häufen, glauben wir, dass auch das gemessene BIP und die Produktivität steigen werden. Die Geschichte zeigt, dass die Zahlen steigen, sobald die ergänzende Infrastruktur ausgereift ist.

Tyler Cowen prognostiziert einen jährlichen Produktivitätsanstieg in den USA von 0,5 %, während ein Bericht der National Academies von mehr als 1 % und Goldman Sachs von 1,5 % ausgeht. Selbst wenn die Skeptiker Recht behalten und die offiziell gemessenen BIP-Zuwächse unter 1 % liegen, wäre es falsch, die KI als Enttäuschung zu bezeichnen. Das Leben könnte sich viel schneller verbessern, als es die Tabellen vermuten lassen, vor allem für Haushalte mit geringem Einkommen, die im Verhältnis zu ihrem Grundeinkommen am meisten von kostenlosen Werkzeugen profitieren.

Da immer mehr digitale Güter kostenlos zur Verfügung stehen, wird die Messung des Nutzens und der Kosten immer wichtiger. Das Fehlen von Beweisen im BIP ist kein Beweis für das Fehlen von Beweisen im wirklichen Leben. Das Nutzenversprechen der KI befindet sich bereits in Millionen von Browser-Tabs und Smartphone-Tastaturen. Unsere statistischen Spiegel haben die Reflexion noch nicht eingefangen. Die Produktivitätsrevolution braut sich unter der Oberfläche zusammen, aber die Wohlfahrtsrevolution ist bereits im Gange.

Avinash Collis ist Assistenzprofessor am Heinz College of Information Systems and Public Policy der Carnegie Mellon University. Erik Brynjolfsson ist Professor in Stanford und Co-Vorsitzender von Workhelix, einem Unternehmen, das Möglichkeiten des maschinellen Lernens bewertet.

Übersetzt von DeepL

Das Mooresche Gesetz: Vergangenheit, Gegenwart und Zukunft im Zeitalter der Künstlichen Intelligenz

Das Mooresche Gesetz, benannt nach Gordon Moore, einem der Mitbegründer von Intel, ist eine der einflussreichsten Beobachtungen der Technologiegeschichte. Moore stellte 1965 fest, dass sich die Anzahl der Transistoren auf einem Mikrochip etwa alle zwei Jahre verdoppelt, was eine exponentielle Steigerung der Rechenleistung bei sinkenden Kosten mit sich brachte. Diese Feststellung, die als Mooresches Gesetz bekannt wurde, hat die Grundlage für die rasante Entwicklung der Informationstechnologie geschaffen, die wir heute kennen.

In den letzten Jahrzehnten konnte das Mooresche Gesetz die Computerindustrie beispiellos antreiben. Die stetig wachsende Rechenleistung ermöglichte Fortschritte in fast allen Bereichen: von der Automatisierung und der Mobiltelefonie bis hin zur komplexen Datenverarbeitung und Cloud-Computing. Prozessoren wurden kleiner, schneller und effizienter, was neue Geräteklassen wie Smartphones, Tablets und Wearables möglich machte. In den letzten Jahren hat die Entwicklung jedoch Anzeichen für eine Verlangsamung gezeigt, da die physikalischen und technischen Grenzen der Miniaturisierung erreicht wurden.

Die Auswirkungen des Mooreschen Gesetzes auf die Technologieentwicklung

Die Effekte des Mooreschen Gesetzes lassen sich in zahlreichen Branchen nachzeichnen. In der Computerwelt führte es zu schnelleren Prozessoren, die komplexere Anwendungen und Algorithmen unterstützen konnten. Dies brachte revolutionäre Fortschritte in Bereichen wie der medizinischen Bildverarbeitung, der automatisierten Datenanalyse und dem maschinellen Lernen mit sich. Zudem ermöglichte es die Entstehung des Internets, wie wir es heute kennen, und die Verbreitung mobiler Netzwerke, die unsere Gesellschaft nachhaltig beeinflusst haben.

Die wirtschaftlichen Auswirkungen waren ebenfalls enorm. Sinkende Hardwarekosten bei steigender Leistung machten Technologien für immer breitere Bevölkerungsschichten zugänglich und kurbelten Innovationen an. Unternehmen konnten produktiver werden, während neue Industrien, wie etwa die digitale Unterhaltung und E-Commerce, entstanden. Viele von Moores Prämissen haben also das digitale Zeitalter ermöglicht und geformt.

KI und das Ende des Mooreschen Gesetzes: Eine neue Ära

Mit den jüngsten Fortschritten in der Künstlichen Intelligenz (KI) tritt das Mooresche Gesetz nun in eine neue Phase ein, in der seine Rolle neu definiert werden muss. Während die physische Miniaturisierung der Transistoren immer schwieriger wird, wird das Wachstum der Rechenleistung zunehmend durch spezialisierte Hardware und Softwarelösungen vorangetrieben. Besonders im KI-Bereich spielen neuartige Architekturen wie Graphics Processing Units (GPUs) und Tensor Processing Units (TPUs) eine zentrale Rolle. Diese Hardware wurde speziell entwickelt, um die massiven Berechnungen zu bewältigen, die für maschinelles Lernen und neuronale Netzwerke erforderlich sind. In gewisser Weise hat sich das Mooresche Gesetz von der reinen Transistordichte zu einem erweiterten Konzept der Rechenleistung verschoben, in dem spezialisierte Hardware entscheidend ist.

Die Einführung der KI hat auch dazu geführt, dass die Effizienz und Optimierung von Software an Bedeutung gewinnt. Während in der Vergangenheit die Rechenleistung hauptsächlich durch Hardware-Upgrades gesteigert wurde, setzt die KI-Industrie zunehmend auf optimierte Algorithmen und neuronale Netzwerke, um die Leistung zu steigern. KI-Modelle wie GPT oder Transformer-Netzwerke sind auf hochoptimierte Architekturen angewiesen, die nicht nur auf physische Hardware, sondern auch auf spezialisierte Softwareoptimierungen angewiesen sind. Diese Entwicklung zeigt, dass das klassische Mooresche Gesetz allein nicht mehr ausreicht, um das Wachstum in der Rechenleistung zu erklären.

Ausblick: Was sich durch KI ändert

Die Ära der KI hat das Mooresche Gesetz auf eine neue Ebene gehoben, indem es die Rolle von Hardware und Software neu verteilt. Für Unternehmen bedeutet dies, dass Investitionen nicht mehr nur in bessere Hardware, sondern auch in fortschrittliche Algorithmen und spezialisierte Rechenstrukturen fließen müssen. Gleichzeitig eröffnet sich ein neues Innovationsfeld: Das Ziel ist nicht mehr nur die Steigerung der Anzahl der Transistoren, sondern die Entwicklung von Architekturen, die effizienter und anwendungsorientierter sind.

Künstliche Intelligenz könnte langfristig das Ende der klassischen Interpretation des Mooreschen Gesetzes markieren, während es die Technologieentwicklung weiter beschleunigt. Indem KI-basierte Systeme immer komplexer und leistungsfähiger werden, könnten sie schließlich eigene Optimierungsstrategien entwickeln und neue Algorithmen erfinden, die das Potenzial haben, die Rechenleistung und Effizienz weit über die Grenzen des bisherigen Mooreschen Gesetzes hinaus zu steigern. KI bringt also nicht nur neue Werkzeuge, sondern verändert auch grundlegend, wie wir über Fortschritt und Leistung denken – und könnte so die Technologieentwicklung in eine vollkommen neue Richtung lenken.

*****

Wenn Dir der Beitrag gefallen hat, gern liken oder teilen. Danke!

Über neue Beiträge automatisch informiert werden?  

Zum Beratungsangebot –> hier

Das Klima bricht Deutschland das Genick

Es ist viel los in den Märkten: 

Das Thema KI macht den Chiphersteller Nvidia zur Nummer 6 der werthaltigsten Assets, vor Amazon und Meta, unmittelbar hinter Alphabet/Google und Saudi Aramco

Das sagt einiges über die Bedeutung, die KI zugemessen wird. 

Auf seinem Weg das globale Finanzsystem umzukrempeln, ist Bitcoin schon auf Platz 9 angekommen, kurz davor, erst Silber und dann Amazon in der Marktkapitalisierung zu überholen. 

Was haben KI und Bitcoin gemeinsam? Richtig, massiver Energieverbrauch. 

Aber Hilfe ist unterwegs.

Man muss im Leben eben Prioritäten setzen. Entweder in der Entwicklung von Zukunftstechnologien dabei sein, oder heißer Luft hinterherjagen.

Aufgefallen, dass diese epochale Meldung nur mit Abo zu lesen ist? Ganz großes Kino.

Die Verfügbarkeit und Nutzung preiswerter Energie hat Industrieländer wie Deutschland und deren Lebensstandard über mehr als ein Jahrhundert vorangebracht. 

Der Wahn, dass man mit der Reduzierung anthropogener CO2-Emission das Weltklima steuern kann, wird diesen Wohlstand in deutlich kürzerer Zeit vernichten.   

*****

Wenn Dir der Beitrag gefallen hat, gern liken oder teilen. Danke!

Über neue Beiträge automatisch informiert werden?

  Zum Beratungsangebot –> hier

Was ist Künstliche Intelligenz und wozu brauche ich das?

Anwendungen wie das populäre ChatGPT erweitern die Funktionalität gebräuchlicher Internet-Suchmaschinen, wie Google oder Bing. 

Statt Websites nach gewünschten Stichworten zu durchsuchen und diese sortiert zum Nachschauen zu präsentieren, sind diese LLM Large Language Models, also großartige (!)  Sprachmodelle, in der Lage komplexe Anfragen zu analysieren und aus den gefundenen Quellen selbst adäquate Antworten in natürlicher Sprache zu formulieren. 

Das ist ein riesiger Fortschritt, der die Produktivität überall da verbessert, wo es um Wissen geht. Beim Lernen, beim Recherchieren, beim Verfassen von Information.

Kürzlich habe ich meinen Arbeitsplatz-Computer auf ein mir nicht sehr vertrautes Betriebssystem umgestellt. Schon bald stolperte ich über Warnungen bezüglich Speicherplatz, wofür die physisch vorhandene Speicherkapazität nicht ursächlich sein konnte. Nachdem ich eine halbe Stunde in spezialisierten Foren vergeblich nach einer praktikablen Vorgehensweise gesucht hatte, fragte ich ChatGPT.

Zehn Minuten später war das Problem vollständig gelöst. 

Diese Sprachmodelle sind zugleich Übersetzer. So kann man ohne weiteres mit deutschsprachiger Aufgabenstellung auch fremdsprachige Quellen erschließen und Inhalte erzeugen. 

Das erklärt auch die überraschende Tauglichkeit solcher Sprachmodelle im Umgang mit Programmiersprachen

Im Verbund mit Software, die Sprache in Text (speech2txt) und ebenso Text in Sprache (txt2speech) transformieren kann, werden wir schon bald weitgehend auf die Tastatur als Eingabemedium verzichten.

Mitte der 1980 wurde mir das Patent für eine Intelligente Tastatur erteilt, die mit nur neun dynamisch belegten Tasten und einer auf Buchstaben-Häufigkeitsstatistik  basierten Logik flüssige alphanumerische Texteingabe erlaubte. 

Jetzt, fast 40 Jahre später, ist das endgültig überholt. 

In der Microcomputer-Euphorie der 1980er Jahre gab es auch die kühne Idee, dass man schon bald am Telefon in seiner Muttersprache reden kann, was am anderen Ende in der Sprache des Gesprächspartners ankommt und umgekehrt. 

Es hat viel länger gedauert als gedacht, aber als Sahnehäubchen wird schon bald bei solchen Gesprächen sogar unverwechselbar die Stimme des jeweiligen Sprechers in der fremden Sprache zu hören sein. Mein auswärtiger Geschäftspartner wird mich also perfekt in seiner Sprache reden hören, und umgekehrt.

Gehen wir einen Schritt zurück:

Die Konversation mit solchen LLM kann in einfacher Form erfolgen, also “erkläre mir small modular reactors” als Prompt, wie man die Anfragen bezeichnet. 

Hier ist die Antwort von ChatGPT

Small Modular Reactors (SMRs) sind eine Art von Kernreaktoren, die im Vergleich zu herkömmlichen Kernkraftwerken kleiner sind und in modularen Einheiten gebaut werden. Sie sind so konzipiert, dass sie mehr Flexibilität, Skalierbarkeit und verbesserte Sicherheitsmerkmale bieten. Hier sind einige wichtige Merkmale von SMRs:

  • Größe und Skalierbarkeit: SMRs sind kleiner als herkömmliche Großkraftwerke und haben typischerweise eine Leistung von weniger als 300 Megawatt (MW) pro Modul. Der modulare Ansatz ermöglicht es, mehrere Einheiten in einem Kraftwerk zu kombinieren und die Kapazität je nach Bedarf zu erhöhen.
  • Transport und Montage: Ein großer Vorteil von SMRs ist ihre Größe, die den Transport der Komponenten erleichtert. Einige SMR-Designs können vorgefertigt und dann zum Standort transportiert werden, was die Montage beschleunigt und die Kosten reduziert.
  • Sicherheit: SMRs werden so entwickelt, dass sie verbesserte Sicherheitsmerkmale aufweisen. Die kleineren Leistungen können helfen, die Auswirkungen von Unfällen zu begrenzen, und einige SMR-Designs nutzen passive Sicherheitssysteme, die weniger oder keine externen Energiequellen erfordern, um die Anlage sicher zu betreiben.
  • Vielseitige Anwendungen: SMRs können für verschiedene Zwecke eingesetzt werden, darunter die Stromerzeugung für abgelegene Gebiete, als Backup-Stromversorgungssysteme für kritische Infrastrukturen und industrielle Anwendungen, oder sogar für die Entsalzung von Wasser.
  • Reduzierte Investitionskosten: Durch ihre geringere Größe und modulare Bauweise können SMRs die Investitionskosten senken und eine schrittweise Erweiterung der Kapazität ermöglichen, was finanziell attraktiv sein kann.
  • Reaktortypen: Es gibt verschiedene SMR-Designs, darunter Druckwasserreaktoren (PWR), Siedewasserreaktoren (BWR), Hochtemperaturreaktoren (HTR) und Flüssigsalzreaktoren (MSR). Jeder Typ hat unterschiedliche Eigenschaften und Anwendungen.

SMRs könnten eine vielversprechende Option für die zukünftige Energieerzeugung sein, da sie das Potenzial haben, eine saubere, zuverlässige und sichere Energiequelle zu sein, während sie gleichzeitig einige der Herausforderungen herkömmlicher Kernkraftwerke angehen. Es ist wichtig zu beachten, dass die Entwicklung und Implementierung von SMRs weiterhin fortschreitet, und verschiedene Länder und Unternehmen arbeiten an der Realisierung dieser Technologie.

–> Ende ChatGPT

Je spezifizierter der prompt ist, umso zufriedenstellender wird die Antwort ausfallen und es kann sich ein Dialog entwickeln. Hier ist ein mögliches Beispiel:

FRAGE:

Du, ChatGPT, bist jetzt ein Spezialist für <small modular reactors> und sollst meine diesbezüglichen Fragen in deutscher Sprache beantworten. Ich bin Ingenieur, jedoch nicht in diesem Fachgebiet. Erkläre mir also zuerst auf maximal einer A4-Seite das Prinzip von <small modular reactors> und warte dann meine Rückfragen ab. Wenn ich “weiter” sage, erkläre mir den aktuellen Stand der Technik und die wichtigsten Player. Danach gib mir eine Einschätzung, wann wir mit den ersten Anlagen für die industrielle Nutzung rechnen können.

–> ChatGPT

Prinzip von Small Modular Reactors (SMRs)

Small Modular Reactors (SMRs) sind eine neuartige Form von Kernreaktoren, die sich durch ihre kompakte Größe und modulare Bauweise auszeichnen. Im Gegensatz zu herkömmlichen großen Kernkraftwerken werden SMRs in kleinere Einheiten unterteilt, die in der Regel in einer Fabrik vorgefertigt und dann vor Ort zusammengesetzt werden können. Die Größe der SMRs reicht von einigen Megawatt bis etwa 300 Megawatt, was sie deutlich kleiner macht als traditionelle Reaktoren, die normalerweise Hunderte von Megawatt haben.

SMRs nutzen ähnliche Prinzipien wie herkömmliche Reaktoren, indem sie die Kernspaltung von Uran oder Plutonium verwenden, um Wärme zu erzeugen. Diese Wärme wird verwendet, um Wasser in einem Druckwasserreaktor oder Dampf in einem Siedewasserreaktor zu erhitzen. Der erzeugte Dampf treibt dann eine Turbine an, um elektrische Energie zu erzeugen.

SMRs bieten einige potenzielle Vorteile gegenüber herkömmlichen Reaktoren, darunter:

  1. Sicherheit: Die kompakte Größe der SMRs ermöglicht es, sie mit fortschrittlichen passiven Sicherheitsmechanismen auszustatten, die das Risiko von Kernschmelzen minimieren.
  2. Modularität: Da SMRs in kleinen Einheiten arbeiten, können sie schrittweise erweitert werden, je nach Bedarf. Dies erleichtert auch die Finanzierung, da Investitionen in kleinere Schritte aufgeteilt werden können.
  3. Flexibilität: SMRs können in verschiedenen Bereichen eingesetzt werden, wie der Stromerzeugung, Fernwärme, Prozesswärme für Industrieanlagen und sogar zur Wasserentsalzung.
  4. Standortflexibilität: Die geringere Größe ermöglicht es, SMRs auch an abgelegenen Standorten oder dort, wo der Netzanschluss schwierig ist, einzusetzen.

SMRs befinden sich derzeit in verschiedenen Entwicklungsstadien, und ihre potenziellen Anwendungen und Vorteile werden weiterhin erforscht und evaluiert.

Bitte teilen Sie mir mit, wenn Sie weitere Informationen wünschen oder Rückfragen haben.

FRAGE:

Welche Firmen arbeiten daran und gibt es schon reale Einsatzfälle?

–> ChatGPT

Firmen, die an Small Modular Reactors (SMRs) arbeiten:

Es gibt mehrere Unternehmen und Organisationen, die aktiv an der Entwicklung und dem Bau von SMRs arbeiten. Einige der prominenten Akteure in diesem Bereich sind:

  1. NuScale Power: NuScale ist ein führendes Unternehmen in der Entwicklung von SMRs. Ihr Reactor-Design basiert auf einem Druckwasserreaktor mit einer Nennleistung von etwa 60 Megawatt. Das Unternehmen hat Fortschritte bei der Zertifizierung und kommerziellen Umsetzung gemacht und hat bereits Vereinbarungen zur Bereitstellung von SMRs in den USA und anderen Ländern getroffen.
  2. Rolls-Royce: Das britische Unternehmen ist auch an der Entwicklung von SMRs beteiligt. Ihr Konzept, bekannt als „UK Small Modular Reactor,“ basiert auf einem modularen Reaktor mit einer Leistung von etwa 440 Megawatt. Rolls-Royce hat eine Partnerschaft mit verschiedenen Organisationen, um das Projekt voranzubringen.
  3. Westinghouse Electric Company: Westinghouse ist ein bekannter Name in der Kernenergieindustrie und arbeitet an einem SMR-Konzept namens „Westinghouse SMR.“ Ihr Design ist ein Druckwasserreaktor mit einer Leistung von etwa 225 Megawatt.
  4. China National Nuclear Corporation (CNNC): China ist auch stark in die Entwicklung von SMRs involviert. Die CNNC arbeitet an mehreren SMR-Projekten, darunter dem „ACP100“ und dem „Linglong One.“ Diese Designs haben Leistungen im Bereich von etwa 100 Megawatt.
  5. Toshiba: Das japanische Unternehmen Toshiba entwickelt das „Toshiba 4S“ SMR-Konzept mit einer Leistung von etwa 10 Megawatt. Es wurde als Kompaktreaktor für abgelegene Gebiete und Inseln konzipiert.
  6. BWX Technologies (BWXT): BWXT ist ein Unternehmen, das in der nuklearen Brennstofftechnologie tätig ist und auch an der Entwicklung von SMRs beteiligt ist. Ihr „BWXT mPower“ SMR ist ein Druckwasserreaktor mit einer Leistung von etwa 195 Megawatt.

Reale Einsatzfälle:

Obwohl es noch keine vollständigen kommerziellen Einsätze von SMRs gibt, gibt es einige fortschrittliche Projekte und Kooperationen weltweit, die sich auf die Implementierung von SMRs vorbereiten:

  1. USA: Das Unternehmen NuScale Power arbeitet mit dem US Department of Energy (DOE) zusammen, um eine Anlage mit 12 SMRs in Idaho, USA, zu bauen. Diese Anlage könnte in den kommenden Jahren in Betrieb gehen.
  2. Kanada: Kanada ist auch aktiv in der Entwicklung von SMRs. Das Unternehmen Terrestrial Energy arbeitet daran, einen fortschrittlichen Molten-Salt-Reaktor zu entwickeln, und hat mit der kanadischen Regierung Vereinbarungen für eine mögliche zukünftige Implementierung von SMRs getroffen.
  3. Vereinigtes Königreich: Rolls-Royce und andere britische Unternehmen arbeiten eng mit der Regierung des Vereinigten Königreichs zusammen, um die Entwicklung und den Einsatz von SMRs zu fördern.

Die Industrie befindet sich noch in der Entwicklungs- und Demonstrationsphase. Es wird jedoch erwartet, dass in den nächsten Jahren erste SMR-Anlagen in Betrieb genommen werden könnten, sobald die erforderlichen Sicherheitszertifizierungen und regulatorischen Genehmigungen erteilt wurden.

Ende ChatGPT

Ich konnte nicht widerstehen, mal die Alternative zu Windkraftanlagen als Beispiel zu nehmen.

Nun setzen Sie statt <small modular reactors> einen Begriff aus Ihrer Industrie ein und recherchieren. Ganz einfach und immens zeitsparend.

Prompt engineering, also die Technik möglichst zielführende Anfragen zu formulieren, ist eine Wissenschaft für sich geworden und wird stetig weiterentwickelt. Und ja, man kann sogar dem LLM auftragen, optimale prompts vorzuschlagen. 

Soweit zum praktischen Einstieg in LLM, die aktuell verbreitetste und für KMU nützlichste Form von KI-Systemen. 

Wenn Sie diesem Blog folgen wollen, dann bitte Email-Adresse angeben. Diese wird in keinem Fall mit Dritten geteilt. Den Post selbst können Sie gern teilen.

Folgen Sie @u_wegweiser auf X

Besuchen Sie auch meinen Blog besserpanama.com. Mehr von mir gibt es in der edition besserpanama bei Amazon.

KMU und Digitalisierung

Der Weg ist das Ziel

Internet für Unternehmen gab es erstmals Ende der 1990er Jahre. Dann kam die dotcom-Krise, fegte eine Vielzahl Anbieter vom Markt, und Ernüchterung setzte ein.

In der Abbildung ist das der sichtbare Absturz nach den anfänglich völlig überzogenen Erwartungen.

Wie immer bei neuen Technologien ging es danach richtig los. Mit „zunehmender Erkenntnis“ erreichte man das „Plateau der Produktivität“.

Diesem Technologiezyklus werden wir bei Künstlicher Intelligenz und Blockchain/Bitcoin wieder begegnen.

Der Start für Unternehmen ins Internet-Zeitalter begann um 2000 mit statischen Websites, Internet-Auftritt genannt. Diese wurden bald dynamisch, dann interaktiv, heute zur integrierten Business-Plattform. (Beispiel)

Die Mehrzahl der Unternehmen und Organisationen, sowie insbesondere in der Verwaltung, ist da noch lange nicht angekommen, verschenkt Produktivität und Wettbewerbsvorteile.

Bevor ein Unternehmen sich ernsthaft mit KI und demnächst Blockchain/Bitcoin befassen kann, muss es nicht nur die Grundlagen in Sachen Digitalisierung geschaffen haben, sondern fit darin sein.

Unverzichtbare Grundlagen sind, das Wissen im eigenen Unternehmen aufzubauen, eine Digitalisierungsstrategie zu verfolgen und über die notwendige Infrastruktur zu verfügen. Letzteres ist einfach und wird meist von externen Dienstleistern bereitgestellt.

Digitalisierung, KI und Blockchain/Bitcoin sind die Domänen der jungen Generation. Es gilt, im eigenen Unternehmen die zu finden, die sich für mehr als Netflix und Tik-Tok interessieren, sich schon Wissen angeeignet oder sogar schon eigene Miniprojekte realisiert haben, und nur auf eine Herausforderung warten.

Neben der Aktivierung eigener Fachkräfte auch kann die Vergabe spezifischer Praktikums- oder Abschlussarbeitsthemen an Absolventen regionaler Bildungseinrichtungen der Weg sein, um Wissen zu kumulieren und schnell umsetzbare Lösungen zu generieren.