Aktien
8 min zu lesen 14 Nov. 25
Die Entwicklung der Informatik wurde von grundlegenden Veränderungen in den Verfahren und Medien der Datenverarbeitung bestimmt und hat Branchen sowie Ökonomien grundlegend verändert. Carl Vine, Co-Head of Asia Pacific Equities, erläutert im Folgenden, dass derzeit mit dem Einsatz von Photonik eine weitere solche Veränderung stattfindet. Er legt dar, was der Übergang von Elektronen zu Photonen für die heute dominierenden Technologieunternehmen bedeuten könnte und wer von der neuen Ära der Photonik profitieren dürfte.
In über 100 Jahren hat sich die Computertechnik stetig, aber meist nur schrittweise weiterentwickelt. Wirklich grundlegende Umbrüche waren zwar selten, haben jedoch der Entwicklung von Unternehmen, Branchen und sogar Nationen eine neue Richtung gegeben. Ein weiterer solcher Moment steht aus unserer Sicht nun bevor, und die Folgen dürften weitreichend sein.
Die Geschichte der Computertechnik wurde von zwei grundlegenden Faktoren geprägt. Der eine ist das Medium, das die Informationen oder Daten transportiert, der andere ist der Mechanismus, der die Datenverarbeitung übernimmt. Die meisten Erneuerungen in der Computertechnik betrafen einen Wechsel des Mechanismus. Es handelte sich um neue Wege, das gleiche Medium zu verarbeiten. Elektrische Relais wurden durch Elektronenröhren ersetzt, diese wiederum wichen Transistoren1. Transistoren wurden durch integrierte Schaltkreise und Mikroprozessoren ersetzt. Jedes Mal gingen bisherige Marktführer unter, neue Profiteure stiegen auf und die ökonomischen Gegebenheiten der Computerbranche wurden neu definiert.
Das Medium der Computertechnik dagegen hat sich nur einmal verändert: von mechanischer Bewegung über Zahnräder, Stangen, Nocken und Lochkarten hin zur Bewegung von Elektronen. Diese grundlegende Veränderung ermöglichte die moderne Datenverarbeitung.
In der Zwischenzeit fand eine Revolution in Bezug auf Integration und Skalierung statt, ermöglicht durch den Einsatz integrierter Schaltkreise und Mikroprozessoren. Damit war kein neues Medium und kein neuer Mechanismus verbunden, sondern das Unterbringung von Milliarden von Schaltern auf einem einzigen Chip, mit disruptiven Folgen.
Heute verändern sich erstmals seit den späten 1940er Jahren sowohl das Medium als auch der Mechanismus gleichzeitig. So wandelt sich das Medium von Elektronen zu Photonen (Lichtteilchen). Entsprechend müssen sich auch die Logik-Mechanismen ändern. Sie werden sich von Transistoren zu Lichtmodulatoren, Interferometern (Präzisionsmessgeräten) und Detektoren wandeln.
Wie schon zuvor könnten sich neue Giganten herauskristallisieren, so wie das einst bei Herstellern von Elektronenröhren, Taschenrechnern und Minicomputern der Fall war. Angesichts der Tatsache, dass Halbleiteraktien global derzeit eine Börsenkapitalisierung von über 10 Billionen US-Dollar aufweisen, könnten die Auswirkungen enorm sein.
Ursprünglich war mechanische Bewegung das Medium bei Rechenmaschinen. Zahnräder, Stangen und Nocken trieben die Apparate an, von Pascals Rechenmaschine2 über Babbages Analytical Engine3 bis hin zu den Lochkarten-Tabulatoren von IBM. Die Mechanismen bestanden aus Verbindungen und Hebeln.
In den 1940er Jahren hatte die mechanische Bewegung als Medium ausgedient. Sie war zu langsam, zu empfindlich und nicht skalierbar. Elektronen ersetzten die Bewegung als neues Medium. Elektrische Relais und später Elektronenröhren wurden zu den Mechanismen, die sie in Gang setzten.
Gewinner:
RCA, Bell Labs, Ferranti und IBM, denen ein Kurswechsel in schwierigem Umfeld gelang. Auch staatliche Labore profitierten davon. So nahmen Bletchley Park in Großbritannien und das US Army Ballistics Research Lab das neue Medium auf und entwickelten es weiter.
Verlierer:
Hersteller mechanischer Rechenmaschinen wie Brunsviga und Monroe und mit ihnen ein Großteil der europäischen Industrie für Präzisionsinstrumente.
Mit Elektronenröhren war das Rechnen auf Elektronenbasis möglich, aber sie waren zerbrechlich, wurden heiß und verbrauchten viel Strom.
Der weltweit erste elektronische Universalcomputer, ENIAC (Electronic Numerical Integrator and Computer), der im 2. Weltkrieg von den USA gebaut wurde, benötigte eine Fläche von 167 m², wog 30 Tonnen und hatte einen Strombedarf von 150 Kilowatt. Die Röhren brannten häufig durch.
Der Transistor – ein neuer Mechanismus für dasselbe Medium – löste diese Probleme. Er blieb im Betrieb kühler, war kleiner und zuverlässiger und machte das Rechnen praktisch und skalierbar. In der Transistor-Ära wurde die Skalierbarkeit zum Ziel, mit dem Moore'schen Gesetz als Orientierung4.
Gewinner:
IBM festigte 1964 mit der Mainframe-Computerfamilie „System/360“ seine Vormachtstellung. Die 1957 gegründete Digital Equipment Corporation (DEC) entwickelte den ersten Minicomputer. Fairchild und Intel nutzten ihr Transistor-Knowhow zur Entwicklung von integrierten Schaltkreisen. Anbieter von Unterhaltungselektronik wie Texas Instruments, Motorola und Sony bauten neue Imperien auf.
Verlierer:
RCA, einst führend im Röhrenbereich, und viele britische Unternehmen wie Ferranti, Elliott und ICL, die technologisch fortschrittlich, aber kommerziell zersplittert waren. Länder ohne Halbleiterindustrie verloren an globaler Bedeutung.
Das Medium blieben Elektronen und der Mechanismus war nach wie vor der Transistor. Doch die Art und Weise, wie die Transistoren untergebracht wurden, war revolutionär. Integrierte Schaltkreise (IC) ermöglichten letztlich die Anordnung von Millionen von Schaltern auf einem einzigen Chip. Mikroprozessoren stellten einen weiteren Sprung dar, denn nun integrierte man eine gesamte CPU (Zentralrecheneinheit) auf einem einzigen Chip. Dies war nicht lediglich ein neuer Mechanismus, sondern eine industrielle Revolution in Bezug auf Größe und Wirtschaftlichkeit.
Gewinner:
Intels 4004 von 1971 ermöglichte den Personal Computer. Microsoft sorgte für die Standardisierung der Software-Ebene. Apple definierte das Kundenerlebnis neu. Compaq und Dell bauten das Wintel-Ökosystem auf. Software-Giganten wie Oracle, Adobe und SAP profitierten von der Verbreitung von PCs.
Verlierer:
Minicomputer-Firmen wie DEC, Wang und Prime. Mainframe-Hersteller wie Burroughs und Univac. Selbst IBM geriet bei PCs ins Straucheln. Xerox PARC erfand die grafische Benutzeroberfläche, die Maus und das Ethernet, konnte aber keinen Profit daraus schlagen. Japans Projekt „Fifth Generation Computing” scheiterte. Nicht die Physik, sondern die Größe sorgte für eine Neuordnung der Branche.
Die Dynamik von Moores Gesetz hat bereits nachgelassen. GPUs (Grafikprozessoren) haben einen Strombedarf im Megawatt-Bereich. Rechenzentren stoßen an ihre Grenzen in Bezug auf Kühlung und Energieverbrauch. Elektronen werden derzeit zu den Relais unserer Zeit – sie werden zu heiß und zu energiehungrig, um weiter skalierbar zu sein. Die Lösung sind Photonen5.
Die Photonenrevolution begann vor mehr als 30 Jahren, kam aber an der Schwelle zur Integration in einem Prozessor zum Stillstand. 1988 überspannten erstmals Glasfaserkabel den Atlantik, und im Zuge des Internetbooms verdrängten Photonen die Elektronen bei der globalen Datenübertragung. Kupfer als Leiter hatte seine Grenzen erreicht, Lichtleiter konnten dagegen weiter skaliert werden.
Doch die eigentliche Datenverarbeitung blieb hartnäckig auf Elektronenbasis. Die Transistoren wurden immer kleiner, Strom war billig, und die Werkzeuge für die Umsetzung der Logik in Licht existierten nicht. Die Photonik löste das Zwischenproblem – wie man Informationen transportiert –, aber nie das interne Problem – wie man sie verarbeitet.
Das ändert sich aktuell. In Hyperscale-Rechenzentren werden elektronische Verbindungen bereits durch optische ersetzt. Über die Verbindungen hinaus werden neue photonenbasierte Mechanismen entwickelt. Dabei handelt es sich um Modulatoren zur Variation von Licht, Interferometer zu dessen Verarbeitung und Detektoren zur Extraktion der Ergebnisse.
Zum ersten Mal seit den 1940er Jahren verändern sich das Medium zum Datentransport und der Mechanismus zur Datenverarbeitung gleichzeitig.
Um es klar zu sagen: Photonen stellen nicht nur schnellere digitale Rechner in Aussicht. Photonen öffnen erneut die Tür zum analogen Rechnen – eine Vision, die so alt ist wie die Entwicklungen Babbage und Vannevar Bush6.
Babbages Zahnräder waren analog und verkörperten mathematische Ausdrücke (Polynome) in Messing. Bushs Differentialanalysator aus den 1930er Jahren war eine raumfüllende analoge Maschine, die Gleichungen durch rotierende Räder und Wellen löste. Beide waren genial, aber beide waren aufgrund ihrer Größe und mangelnden Genauigkeit zum Scheitern verurteilt.
Der Wechsel zu Transistoren vor mehr als einem halben Jahrhundert erforderte einen Kompromiss mit der Physik: digital statt analog. Transistoren erlaubten Wiederholbarkeit, Präzision und die Gewissheit von Bits (binären Ziffern).
Der Preis dafür war ständig wachsende Komplexität, steigender Stromverbrauch und mehrere Abstraktionsebenen. Diese Mehrkosten wurden akzeptiert, weil sich so Moores Gesetz auszahlte.
Photonen verändern die Verhältnisse grundlegend. Indem sich Wellen überlagern7, miteinander interferieren und sich beugen, führen sie Berechnungen durch: Eine Linse führt eine Fourier-Transformation durch, ein Interferometer multipliziert Matrizen, eine Phasenmaske stellt ein Programm dar.
Photonen erlauben einen neuen Kompromiss: Man tauscht ein wenig Präzision gegen einen um ein Vielfaches höheren Durchsatz und Energieeinsparungen ein. Für maschinelles Lernen ist dieser Tausch vollkommen ausreichend. Die anspruchsvollen Aufgaben (Matrixmultiplikation, Faltungen, schnelle Fourier-Transformationen) lassen sich ganz natürlich auf Licht übertragen. Der restliche Teil (Speicher, Steuerung, Nichtlinearität) kann auf Elektronenbasis bleiben. Im Ergebnis hat man es mit hybridem Rechnen zu tun. Elektronen führen Buch, Photonen rechnen.
Wenn Photonen das nächste Medium sind, dann sind die neuen Logik-Mechanismen eindeutig analog: Modulatoren dienen zur Formung der Wellenfront, Interferometer zu ihrer Verarbeitung und Detektoren zu ihrer Auslesung.
Ob Photonen sich im freien Raum bewegen oder in III/V-Halbleiterplattformen8 oder Siliziumphotonik, ist noch offen. Aber die Richtung ist klar: zurück zum Analogen – nur diesmal mit Lichtgeschwindigkeit.
Frühere Veränderungen in der Computerbranche folgten derselben Logik: Das alte Medium oder der alte Mechanismus stößt an seine Grenzen, ein neues Medium oder ein neuer Mechanismus ist besser skalierbar, etablierte Unternehmen, die an der alten Ordnung festhalten, scheitern. Die Gewinner sind dann diejenigen, die bereits mit dem Neuen vertraut sind oder sich radikal umorientieren.
RCA war führend bei Elektronenröhren, verpasste aber die Transistoren-Technik. DEC dominierte den Minicomputer-Markt, setzte aber keine Mikroprozessoren ein. Großbritannien war führend bei frühen Computern, scheiterte jedoch bei deren Kommerzialisierung und überließ die Branche den USA. Die Geschichte geht über die hinweg, die angesichts technologischer Umbrüche zögern.
Wie wird sich das Umfeld voraussichtlich weiterentwickeln? Unternehmen mit starker Tradition im Bereich der Optik haben gute Chancen, zu den Gewinnern zu gehören, wenn sie die Dynamik zu ihrem Vorteil nutzen. Intel hat zwei Jahrzehnte damit verbracht, Expertise im Bereich Siliziumphotonik aufzubauen. Nachdem es im Bereich Silizium in Rückstand geraten ist, könnte es eventuell wieder als Marktführer im Zeitalter der Photonik auftreten.
Japanische Unternehmen besitzen umfangreiches geistiges Eigentum und Knowhow: Die Dominanz von Sony im Bereich optischer Sensoren ist unserer Meinung nach ein unterschätzter Vorteil. Das geistige Eigentum des Kamera- und Objektivherstellers Nikon liegt an der Schnittstelle zwischen Optik und Halbleiter-Computing. Möglicherweise hat sich deshalb der Brillenhersteller EssilorLuxottica – Partner von Meta im Bereich Augmented-Reality-Brillen – dafür interessiert. Die IOWN-Roadmap (Innovative and Optical Wireless Network) der Telekommunikationsfirma NTT ist eine der vielversprechendsten Kandidaten, die wir im Bereich Photonic Computing sehen.
Interessant sind auch Corning mit seinem Glasfaser-Franchise sowie Cisco und Ciena, die das optische Internet aufgebaut haben. Startups wie Lightmatter, Ayar Labs, PsiQuantum und Flux sind sehr versiert in photonikbasierter Datenverarbeitung und könnten die neuen Grundelemente der Technologie definieren.
Unter dem analogen Blickwinkel erweitert sich das Feld noch mehr. Spezialisten für Kalibrierung, Sensorik und Steuerung könnten sich unerwartet in einer zentralen Position wiederfinden, da nun analoge Computer abgestimmt und stabilisiert werden müssen. Rüstungsfirmen mit großer Expertise in den Bereichen Laser und Sensorik könnten dank ihrer analogen Tradition imstande sein, auch im Computerbereich zu konkurrieren. Denkbar ist auch, dass ein Hersteller von EDA-Tools das „optische CUDA” entwickelt und damit zum neuen Königsmacher wird9.
Was wird voraussichtlich mit den heutigen Marktführern im GPU-Segment passieren? Nvidia, AMD und die Nutznießer ihres Ökosystems sind derzeit sehr erfolgreich, doch ist fraglich, ob sie sich wie IBM in den 1950er Jahren neu ausrichten oder wie DEC und Wang verdrängt werden.
TSMC und Samsung, die führenden Hersteller elektronenbasierter Chips, stehen vor derselben Herausforderung, sobald die Photonik Fuß fasst. Hyperscaler wie Microsoft, Google und Amazon müssen entscheiden, ob sie die Photonik als Kernstück ihrer KI-Infrastruktur unterstützen oder das Risiko eingehen wollen, in den Strukturen von gestern gefangen zu bleiben.
Es ist sicher noch zu früh, um die etablierten Marktführer abzuschreiben. Laut einem kürzlich erschienenen Artikel in der Zeitschrift „Nature“ untersucht Microsoft bereits optische/analoge Rechnerarchitekturen im freien Raum. Nvidia investiert in großem Umfang in Co-Packaged Optics10. Die Entwicklung ist zum jetzigen Zeitpunkt noch völlig offen. Neue Marktteilnehmer haben jedoch die Chance, eine führende Rolle einzunehmen.
Was den Zeithorizont angeht, ist zu bedenken, dass all dies nicht von heute auf morgen geschehen wird. Die Skalierung der photonischen Datenverarbeitung wird Jahre in Anspruch nehmen; wir stehen diesbezüglich noch ganz am Anfang. Zudem ist es unwahrscheinlich, dass die eine Technologie die andere vollständig ersetzen wird. So wie Festplattenlaufwerke neben Solid-State-Speichern (NAND) weiterexistieren, wird die photonische Datenverarbeitung sehr wahrscheinlich neben der elektronischen Datenverarbeitung bestehen, wobei sich beide die Arbeitslast teilen. Dennoch steht viel auf dem Spiel.
Auf nationaler Ebene dürfte die Produktionskapazität im Optiksegment zu einem Gegenstand der Industriepolitik werden. Die USA fördern Start-ups über die DARPA (Defense Advanced Research Projects Agency) und den CHIPS (Creating Helpful Incentives to Produce Semiconductors) Act. China investiert Ressourcen in III/V-Foundries; die EU und Japan arbeiten an der Sicherung ihrer Lieferketten. Länder mit einer besonderen Tradition in den Bereichen Optik und Präzisionsinstrumente wie Japan, Deutschland und die Schweiz könnten im Vorteil sein, wenn sich analoge Computer durchsetzen.
Wie sieht es mit Großbritannien aus? Es mag zwar das Transistorzeitalter verpasst haben, doch verfügt es nach wie vor über großes akademisches Knowhow in den Bereichen Photonik und Quantenoptik: Die Universitäten Southampton, Cambridge und Oxford sind weltweit führend auf diesem Gebiet; zudem gibt es in Großbritannien das Forschungsprogramm Quantum Science & Technology (UCL). Das Land besetzt außerdem industrielle Nischen in den Bereichen Glasfaser, Laser und Messtechnik und besitzt einen Rüstungssektor mit langjähriger Erfahrung in der Optik. Großbritannien kann Taiwan im Siliziumsektor zwar nicht schlagen, doch wenn das nächste Medium Licht ist, könnte es eine ähnliche Rolle spielen wie in der Glasfaser-Ära, als seine Wissenschaftler die Grundlagen zu legen halfen.
Das Informationszeitalter begann mit dem Austausch und der Verarbeitung von Daten mittels Elektronen. Das kognitive Zeitalter ist möglicherweise nur auf Basis von Photonen möglich – vielleicht in Verbindung mit einer Renaissance des Analogen.
Der Wert eines Investments kann sowohl fallen als auch steigen. Dies führt dazu, dass Preise steigen und fallen können, und Investoren bekommen möglicherweise weniger zurück, als sie ursprünglich investiert haben. Die frühere Wertentwicklung stellt keinen Hinweis auf die künftige Wertentwicklung dar. Die in diesem Dokument zum Ausdruck gebrachten Ansichten sollten nicht als Empfehlung, Beratung oder Prognose aufgefasst und nicht als Empfehlung zum Kauf oder Verkauf eines bestimmten Wertpapiers betrachtet werden.
Mitwirkende
Carl Vine, Co-Head Asia Pacific Equities
1 Der Transistor (erfunden 1947) ist ein elektronisches Bauteil, das wie ein Schalter oder Verstärker für elektrische Signale funktioniert. Er kann Strom ein- oder ausschalten, die Stärke von Signalen verändern und Informationen verarbeiten. Moderne Speicherchips enthalten Milliarden von Transistoren.
2 Pascal's Rechenmaschine („Pascaline“) war eine mechanische Rechenmaschine, die 1643 von Blaise Pascal entworfen und gebaut wurde. Die Maschine konnte Additionen und Subtraktionen durchführen.
3 Der englische Mathematiker Charles Babbage entwickelte in den 1830er Jahren die Idee der Analytical Machine. Sie war für mathematische Berechnungen durch das Lesen von Lochkarten konzipiert, wurde jedoch nie vollständig gebaut.
4 Das Mooresches Gesetz beschreibt die Prognose von Gordon Moore (Mitbegründer von Intel) aus dem Jahr 1965, dass sich die Zahl der Transistoren auf einem integrierten Schaltkreis alle zwei Jahre verdoppeln würde.
5 Photonen sind die Grundeinheit der elektromagnetischen Energie und gleichzeitig die kleinsten Teilchen des Lichts. Sie sind durch eine Welle-Teilchen-Dualität geprägt, d. h. sie haben sowohl die Eigenschaften von Wellen als auch von Teilchen.
6 Vannevar Bush (1890–1974) war ein US-amerikanischer Ingenieur, Erfinder und Wissenschaftsadministrator, der eine zentrale Rolle bei der Gestaltung der modernen Informatik, der Forschung während des Kriegs und der Wissenschaftspolitik der USA spielte.
7 Superposition ist der Ort, an dem Wellen sich verbinden – sie können sich dann entweder verstärken oder gegenseitig aufheben.
8 III/V-Plattformen sind Halbleiterplattformen, die aus chemischen Elementen der dritten und fünften Spalte des Periodensystems bestehen. Sie gelten als effizienter als Halbleiter auf Siliziumbasis im Hinblick auf Geräte, die Licht emittieren.
9 Electronic Design Automation (EDA) ist Software, die beim Entwurf und der Herstellung von Halbleitern verwendet wird. CUDA (Compute Unified Device Architecture) ist die Plattform und das Programmiermodell von Nvidia, mit dem Entwickler die Leistung von GPUs nutzen können.
10 Nature, „Analog optical computer for AI inference and combinatorial optimization” (nature.com), September 2025.