Ich habe kürzlich nochmal das Buch Chip War gelesen, welches ich euch sehr ans Herz legen möchte. Im Buch wird im Grunde genommen die gesamte Historie der Halbleiterindustrie von der Erfindung des ersten Transistors kurz nach dem zweiten Weltkrieg bis hin zur globalisierten High-Tech-Wertschöpfungskette in den 2020er Jahren abgedeckt.
Im Folgenden habe ich euch einmal ein paar der wesentlichen Meilensteine dieser Historie aus dem Buch zusammengeschrieben… mit Ausnahme allerdings der geopolitischen Aspekte (USA vs. Russland vs. China, die Taiwan-Problematik etc.), was hier dann doch den Rahmen sprengen würde.
Die Halbleiter-Wertschöpfungskette heute
Die Halbleiter-Wertschöpfungskette heute ist vermutlich das Vorzeigebeispiel für eine globalisierte Produktion und Arbeitsteilung. Inzwischen sind das Know-How und die (Produktions-)Fähigkeiten im Hinblick auf bestimmte Prozessschritte so stark bei einzelnen Playern (und in einzelnen Regionen bzw. Ländern) konzentriert, dass eine Änderung bzw. der Anpassung der Wertschöpfungskette viel Zeit und vor allem hohe Investitionen erfordern würde.
Ein anspruchsvoller Smartphone-Chip wird heutzutage beispielsweise in der Regel auf Basis der Entwürfe bzw. der IP des in japanischem Besitz befindlichen und UK-basierten Unternehmens Arm von einem Chip-Designer in Kalifornien (Nvidia, Qualcomm, Apple, Microsoft etc.) unter Verwendung von Design-Software aus den USA (Synopsys, Cadence, Mentor) entworfen.
Wenn der Entwurf fertig ist, wird dieser an eine Halbleiterfabrik (“Fab”) in Taiwan zu TSMC geschickt, die ultrareine Siliziumwafer und Spezialgase aus Japan bezieht. Das Design wird dann mithilfe einiger der präzisesten Maschinen der Welt sozusagen in den Siliziumwafer eingraviert. Diese Maschinen, die das Fotolithografie-Verfahren nutzen, können inzwischen Materialschichten mit einer Größe von nur wenigen Atomen ätzen, abscheiden und auch messen.
Die Herstellung der Maschinen bzw. Werkzeuge ist weltweit in den Händen von i.W. fünf Unternehmen konzentriert, einem niederländischen (ASML), einem japanischen (Tokyo Electron) und drei kalifornischen (Applied Materials, Lam Research und KLA). Ohne diese fünf Unternehmen ist die Herstellung fortschrittlicher Chips heutzutage nahezu unmöglich.
Anschließend wird der Chip meist in Südostasien verpackt und getestet, bevor er zur Montage in ein Telefon oder einen Computer weiter nach China geschickt wird (z.B. zu Foxconn).
Für weitere Details zur heutigen Wertschöpfungskette der Halbleiterindustrie schaut euch auch einmal den DIY Investor Beitrag Semiconductors 1×1: Wertschöpfungskette, Marktsegmentierung, Endanwendungen an.
Marktsegmentierung heute
Heute lässt sich der Gesamtmarkt für Halbleiter ganz grob in drei verschiedene Segmente unterteilen:
- Mikroprozessoren bzw. Logic-Chips (CPUs, GPUs und NPUs / AI Acceleratoren)
- Speicherchips (DRAM, NAND und neuerdings HBM)
- Alle anderen Chips (Sensoren, Analog / Mixed Signal, Leistungshalbleiter, Mikrocontroller etc.)
Bei den ersten beiden Kategorien geht es nach wie vor (und auch zukünftig) insbesondere darum, die Chips immer kleiner, effizienter und leistungsfähiger zu machen. Die wesentlichen Player in diesen Märkten stehen also im Wettbewerb um den kleinsten Halbleiter und die ausgefeilteste Technologie. Ohne EUV (Extreme Ultaviolet Lithography) geht in diesen beiden Kategorien nichts mehr.
Die dritte Kategorie ist diffuser und umfasst wie gesagt u.a. Sensoren, die analoge Video- oder Audiosignale in digitale Daten umwandeln, Funkfrequenzchips (Radio Frequency oder RF), die mit Mobilfunknetzen kommunizieren, sowie auch Leistungshalbleiter (Power Semiconductors), die die Stromnutzung von Geräte steuern bzw. optimieren.
Diese dritte Kategorie war und ist dabei nicht in erster Linie von der Aufrechterhaltung des Mooreschen Gesetz abhängig. Ein cleveres Design ist in den meisten Anwendungen wichtiger, als die Größe der Halbleiter. Heute werden etwa 70-80% dieser Kategorie mit einer Strukturbreite von 180nm oder mehr hergestellt, einer Fertigungstechnologie also, die bereits in den 1990er Jahren entwickelt wurde.
Daher unterscheiden sich die Geschäftsmodelle und auch die Profitabilität dieses Segments ggf. substantiell von denen der Logik- und Speicherchips.
Wesentliche historische Entwicklungen in der Halbleiterindustrie
Chip War beschreibt nun die wesentlichen historischen Entwicklungen (sowohl technologisch, als auch marktseitig), die zur Struktur der Halbleiterindustrie, wie wir sie heute kennen, geführt haben. Insofern ist das Buch ein Must Read für diejenigen unter euch, die sich intensiver mit einem Investment in Halbleiter-Aktien auseinandersetzen möchten.
Insbesondere erfahrt ihr im Buch mehr über die folgenden Entwicklungen der Halbleiterindustrie (ich habe hier einmal eine möglichst sequentielle Darstellung versucht):
Die Anfänge der Halbleiterindustrie im Silicon Valley der 1950er Jahre
Die Erfindung des ersten Transistors bei Bell Lab im Jahr 1947.
Die Entwicklung des Fotolithografie-Verfahrens durch Jay Lathrop, angemeldet zum Patent im Jahr 1957 (er hatte das Verfahren ursprünglich durch simples Umdrehen eines Mikroskops entdeckt). Die Massenproduktion von Transistoren schien damit möglich zu sein. Vereinfacht gesprochen könnte man Fotolithografie auch als “Drucken mit Licht” bezeichnen. Zwei kleine Randnotizen dazu:
- Robert Noyce, Chef der gerade neu gegründeten Firma Fairchild Semiconductor, stellte fast unmittelbar nach Bekanntwerden des Patents Personal aus dem Umfeld von Lathrop ein, um das Fotolithografieverfahren zur Marktreife weiterzuentwickeln
- Andy Grove, später CEO bei Intel und bekannt für seinen unnachgiebigen Fokus auf Produktionseffizienz, war damals bei Fairchild bereits für die Verbesserung des Herstellungsprozesses zuständig
Unless we could make it work, we did not have a company. – Robert Noyce
Die Entwicklung des ersten integrierten Schaltkreises durch Jack Kilby und Robert Noyce im Jahr 1958.
Anmerkung: Umgangssprachlich wurden die von Kilby und Noyce entwickelten „integrierten Schaltkreise“ (“Integrated Circuits”) bereits sehr früh als „Halbleiter“ (“Semiconductors”) oder einfacher als „Chips“ bezeichnet.
Bereits ein Jahr später Auslieferung von 64 “Chips” durch Texas Instruments (TI) an das MIT Implementation Lab (für die Nutzung im Raketenprogramm der US Navy). Bis Ende 1964 hatte Texas Instruments 100.000 Chips für das so genannte Minuteman-Programm geliefert. Im Jahr 1965 gingen ca. 20% aller verkauften Chips an das Minuteman-Programm. Die wesentliche Frage war, ob TI diese in Massenproduktion herstellen konnte.
Der Start von Morris Chang’s Karriere bei TI im Jahr 1958 (als Leiter einer Produktionslinie für Chips, die in IBM-Computern zum Einsatz kommen sollten). Die Chips waren so unzuverlässig, dass der Yield nahe Null lag (also der Ausschuss nahe 100%). Fast alle Chips wiesen also Herstellungsfehler auf, die zu Kurzschlüssen oder Fehlfunktionen der Schaltkreise führten. Chang begann mit der systematischen Optimierung von Temperatur und Druck bei der Mischung verschiedener Chemikalien, um die besten Kombinationen zu identifizieren. Innerhalb weniger Monate stieg die Ausbeute von quasi Null auf ca. 25% an. Bald darauf übernahm Chang die Leitung des gesamten Halbleiter-Geschäfts bei TI. Das Chang die Halbleiterindustrie ca. 30 Jahre später einmal komplett auf den Kopf stellen sollte, war damals vermutlich noch nicht abzusehen.
Die Anfänge der Massenproduktion und der Aufbau internationaler Wertschöpfungsketten in den 1960ern
Die Entwicklung des “Micrologic” durch Fairchild Semiconductor im Jahr 1961. Beim “Micrologic” handelte es sich um einen Siliziumchip mit vier eingebetteten Transistoren. Kurz danach waren es bereits ein Dutzend, dann ca. 100. Der Co-Founder von Fairchild, Gordon Moore, stellte im Jahr 1965 die Hypothese auf, dass sich die Anzahl an Transistoren je Siliziumchip auf absehbare Zeit jährlich verdoppeln, also exponentiell wachsen würde. Diese Prognose ging als „Moores Law“ in die Geschichte der Halbleiterindustrie ein.
Das “Hochskalieren” der Produktion und damit die Senkung der Kosten: Fairchild war das erste Unternehmen, welches seine Forschungs- und Entwicklungsaktivitäten nicht ausschließlich auf das Militär ausrichtete… eher im Gegenteil. Fairchild war der erste Chip-Hersteller, der eine vollständige Produktionslinie bzw. Serienfertigung ausschließlich für zivile Abnehmer in Betrieb nahm. Um seine Produktion auszulasten, ging Robert Noyce eine Wette ein und reduzierte den Preis von mehr als 20 USD auf unter 2 USD je Chip… ein Preis, der aufgrund der hohen Fixkosten erst bei hohen Produktionszahlen zu einem positiven Gewinnausweis führen würde (Stichwort Fixkostendegression bzw. “Economies of Scale“). Resultat: Dank sinkender Preise konnte Fairchild in der Folge große Aufträge aus dem Privatsektor an Land ziehen.
Moore later argued that Noyce’s price cuts were as big an innovation as the technology inside Fairchild’s integrated circuits. – Aus Chip War
In 1962 Nutzung der ersten Chips für das Apollo-Raumfahrtprogramm. Der Umsatz von Fairchild explodierte daraufhin von ca. 500.000 USD im Jahr 1958 auf mehr als 21 Mio. USD nur zwei Jahre später.
Die Entwicklung des ersten kommerziellen “Wafer Steppers”, einem essentiellen Teil der Lithografie-Technik, durch GCA im Jahr 1961. Die Technologie ermöglichte es, eine Struktur per Belichtung verschiedener Masken auf eine lichtempfindliche Chemikalie bzw. einen Silizium-Wafer aufzubringen.
Die beginnende Internationalisierung der Chipproduktion: Im Jahr 1963 mietete Fairchild Räumlichkeiten in Hongkong / Kowloon Bay. Das Unternehmen stellte seine Siliziumwafer zwar weiterhin in Kalifornien her, begann jedoch damit, die Halbleiter zur Endmontage nach Hongkong zu liefern. Im ersten Betriebsjahr 1963 wurden in der Anlage in Hongkong 120 Millionen Geräte montiert. Texas Instruments, Motorola und andere folgten Fairchild auf dem Fuße und innerhalb eines Jahrzehnts verfügten fast alle US-amerikanischen Chiphersteller über ausländische Montageanlagen in Hong Kong (Stundenlohn damals 25 US Cents, ca. 1/10 des Stundenlohns in den USA), Taiwan (19 US Cents), Malaysia (15 US Cents), Singapur (11 US Cents) und Südkorea (10 US Cents).
Die Entstehung der japanischen Chip-Industrie in den 1960er Jahren. Zeitweise zahlten japanische Firmen zwischen 2,0 und 4,5% ihrer Umsatzerlöse als Lizenzgebühren an die großen US-amerikanischen Player (damals Fairchild, TI und Western Electric). Die US-amerikanischen Chiphersteller waren zunächst froh, mit der Lizensierung ihrer Technologien zusätzliche Einnahmen generieren zu können. Die Bedrohung durch die japanischen Hersteller schätzten sie als gering ein, da diese allem Anschein nach entwicklungstechnisch um Jahre hinter den etablierten Palyern zurücklagen. 1964 hatte Japan dann allerdings die USA in puncto Produktionsmenge bereits überholt… jedenfalls bei den diskreten Transistoren.
Die Gründung von Intel durch Gordon Moore und Robert Noyce (und mit finanziellem Support von Arthur Rock, einem der ersten Venture Capitalists im Silicon Valley) im Jahr 1968 und die Entwicklung der nächsten Generation von Chips mit einer Speicherkapazität von 1.024 Bits (damals erhältlich für ca. 20 USD… heute der Preis für einen USB-Stick mit einer Kapazität von mehr als 1 Mrd. Bits).
1970er Jahre: Entwicklung der ersten Speicherchips (DRAMs) und Dominanz der japanischen Chiphersteller
Die Entwicklung des ersten DRAM-Chips (“dynamic random access memory”) durch Intel im Jahr 1970. Bis zur Entwicklung der DRAMs „speicherten“ Computer ihre Daten noch auf oder in einem so genannten Magnetkern (“Magnetic Core”).
Die Entstehung erster mengenrelevanter Anwendungsfelder für Transistoren bzw. Mikrochips, insbesondere natürlich zunächst in der Herstellung von Waffen. Die Halbleiterindustrie hat auf einmal eine echte Daseinsberechtigung.
Die zunehmende Dominanz der japanischen Halbleiterfirmen (Nikon, Canon, Toshiba), die es mit ihren günstigen Produktionskosten schafften, den USA wesentliche Marktanteile im Bereich der Speicherchips (DRAM) abzunehmen… was in der Folge zum Exit von Intel aus der Produktion von DRAM-Chips und etwas nachgelagert zur Entwicklung der ersten Mikroprozessoren (CPUs) durch Intel führte. Zu diesem Zeitpunkt setzt die Aufteilung bzw. Globalisierung der Halbleiter-Wertschöpfungskette ein. Die Japaner produzierten dabei nicht nur effizienter und zahlten geringere Löhne. Die lokale Halbleiterindustrie profitierte darüber hinaus von Importbeschränkungen für ausländische Chips, mehr oder weniger direkten Subventionen (für Forschung und Entwicklung) sowie auch viel geringeren Kapitalkosten (die Fremdkapitalzinsen in den USA lagen damals aufgrund von Ölkrisen und Inflation im zweistelligen Bereich).
Die Veröffentlichung erster mathematischer „Designregeln“ durch die zwei Wissenschaftler Lynn Conway (MIT) und Carver Mead (Caltech) im Jahr 1978. Diese ebneten den Weg für die Nutzung von Computerprogrammen zur Automatisierung des Chip-Designs. Designer mussten also nicht mehr die Position jedes einzelnen Transistors genau skizzieren, sondern konnten auf eine Bibliothek mit „austauschbarer Teilen“ zurückgreifen.
Die Gründung von Micron Technology im Jahr 1978, die es mit einem exzessiven Fokus auf Prozessoptimierung und Kostenkontrolle schafften, einen neuen und wettbewerbsfähigen US-amerikanischen Player für die Produktion von Speicherchips (DRAM) zu etablieren… eine bis dahin einzigartige Umkehr des damals vorherrschenden Offshoring-Trends der Halbleiterindustrie.
Exkurs: Kosteneffizienz bei Micron Technology
Chip War benennt einige konkrete Maßnahmen, die Micron’s nachhaltigen Kostenvorteil in der Produktion von DRAMs begründeten:
- Während die Konkurrenz darauf fixiert war, die Größe der Transistoren und Kondensatoren auf jedem Chip zu verringern, erkannte Micron, dass man mehr Chips auf jedem der runden Silizium-Wafer unterbringen könnte, wenn man die Größe des Chips selbst verringerte. Dadurch wurde die Fertigung wesentlich effizienter und kostengünstiger
- Micron optimierte die Wertschöpfungskette so weit, dass für die Herstellung der Produkte weit weniger Produktionsschritte erforderlich waren, als bei den relevanten Wettbewerbern. Dadurch benötigte das Unternehmen weniger Equipment und konnte so die Kosten im Quervergleich senken
- Micron modifizierte die vorhandenen Öfen derart, dass bis zu 250 Siliziumwafer pro Batch “gebacken” werden konnten (anstatt der branchenüblichen 150 Wafer)
- Micron modifizierte die von Perkin Elmer und ASML erworbenen Lithografiemaschinen. Die Produktion wurde dadurch noch präziser, als von den Herstellern erwartet
- Grund und Boden sowie auch Strom (kostengünstige Wasserkraft) waren in Boise, Idaho günstiger als in Kalifornien oder auch in Japan
1980er Jahre: Entstehung der Halbleiterindustrie in Südkorea und Taiwan
Über die Zeit die Entstehung der Halbleiterindustrie in Südkorea mit Samsung als wesentlichstem Player. Die beste Option für den Umgang mit der internationalen Konkurrenz aus Japan bestand nach Ansicht der Unternehmen des Silicon Valley darin, einen noch günstigeren Lieferanten für standardisierte DRAMs zu identifizieren und gleichzeitig die eigenen F&E-Ressourcen auf höherwertige Produkte auszurichten. Die US-amerikanischen Chiphersteller betrachteten die koreanischen Newcomer daher mehrheitlich als potenzielle Partner (und nicht primär als Konkurrenten):
- Intel beispielsweise unterzeichnete in den 1980er Jahren ein JV mit Samsung über die Lieferung von DRAM-Chips (die Intel dann unter seiner eigenen Marke verkaufte)
- Micron, weil in akuter Geldnot, lizensierte das Design für einen 64K DRAM-Chip an Samsung, wohlwissend, dass Samsung damit über die Zeit befähigt werden würde, die gleichen Produkte herzustellen
Intels Exit aus dem DRAM-Markt, gepaart mit einer massiven Restrukturierung angeführt von Andy Grove. In Groves Restrukturierungsplan bestand der erste Schritt darin, über 25% der Belegschaft von Intel zu entlassen und Fabs im Silicon Valley, in Oregon, Puerto Rico und Barbados zu schließen. Der zweite Schritt bestand darin, die japanische Fertigungsmethoden zu kopieren, um die Produktion effizienter und kostengünstiger zu machen. Auch von anderer Seite gab es allerdings zu der Zeit Rückenwind für Intel: Zum einen gingen die Zinsen und damit die Kapitalkosten in den USA stark zurück. Zum zweiten verteuerte sich der Japanische Yen substantiell, sodass Nikon, Fujitsu et. al. auf dem Exportmarkt weniger wettbewerbsfähig waren. Gleichzeitig entstand in Texas mit Compaq Computer ein neuer relevanter Wettbewerber von IBM auf dem PC-Markt.
Die Entstehung des PC-Marktes und die Etablierung der x86 Architektur von Intel als einzige Lösung. Intel wird damit – gemeinsam mit AMD, das von Intel eine Lizenz für die Nutzung der x86 Architektur erhält – zum quasi unangreifbaren Chiphersteller für CPUs für den Einbau in PCs (zunächst nur Windows-basiert, später schafft es Intel nach einem Deal mit Steve Jobs auch in den Mac). Keiner der japanischen Chip-Hersteller konnte Intel bei Mikroprozessoren wirklich gefährlich werden (nur NEC hatte es überhaupt ernsthaft versucht).
1981 die Entwicklung eines neuen Typs von Speicherchip, des so genannten „Flash“ oder NAND Speichers durch Toshiba. Im Gegensatz zu DRAM-Speichern können NANDs auch nach dem Ausschalten weiterhin Daten „speichern“. Toshiba ignorierte die Entdeckung allerdings, sodass Intel die NAND-Chips als erster auf den Markt bringen konnte.
Die Gründung von Qualcomm („Quality Communications“) im Jahr 1985 mit der Vision, dass immer leistungsstärkere Mikroprozessoren es ermöglichen würden, immer mehr Signale in der einer Anwendung zur Verfügung stehenden Bandbreite (Frequenzband bzw. “Spektrum”) unterzubringen. Bis Anfang der 1990er Jahre war die Verwendung von Chips zum Senden großer Datenmengen über Funk (die so genannten RF Chips) ein Nischengeschäft. Hintergrund: Je mehr Informationen in einem bestimmten Frequenzbereich untergebracht werden können, desto weniger Spielraum gibt es für Fehler durch verworrene, sich gegenseitig störende Signale.
Die Gründung von TSMC im Jahr 1987 mit Morris Chang, dem ehemaligen TI-Produktionsleiter, an der Spitze. Philips, der niederländische Elektronikkonzern, transferierte damals im Rahmen eines Joint Venture-Deals seine Produktionstechnologie an TSMC und unterstützte das Start-up darüber hinaus mit 58 Mio. USD. Dafür erhielt Philips eine ca. 27%ige Beteiligung an TSMC. Weitere 48% der erforderlichen Investitionssumme stellte die taiwanesische Regierung über den National Development Fund. Das restliche Kapital wurde von mehreren wohlhabenden taiwanesischen Familien der Insel eingesammelt. Das Besondere an TSMC: Das Unternehmen verfolgte von Beginn an die Strategie eines Auftragsfertigers, designte selbst also keine Chips (heutzutage bekannt auch als “Foundry Model”). Beim Großteil der Kunden handelte es sich also per Definition um Chip-Designer ohne eigene Fertigungskapazitäten wie z.B. Qualcomm (obwohl auch Intel und TI zu den ersten Kunden von TSMC gehörten… und noch heute gehören). Durch die Auftrennung von Design und Produktion hat Chang bzw. TSMC die Entwicklung der Halbleiterindustrie stark beeinflusst.
Comrade, we have built the world’s biggest microprocessor! – Russischer Witz aus den 1980er Jahren
Monopolstellung von Intel’s x86-Architektur in den 1990ern und Entwicklung EUV-Technologie durch ASML
1990 die Gründung von Arm durch Apple und zwei weitere Joint Venture-Partner mit dem Ziel, Prozessorchips (also CPUs) auf Basis der einfacheren RISC-Architektur zu entwickeln und x86 im PC-Ökosystem zu ersetzen (Intel hatte RISC zuvor bereits in Betracht gezogen, aber schlussendlich wieder verworfen). Arm’s Geschäftsmodell basierte auf der Lizenzierung seiner Architektur an unabhängige Chipdesigner, was einen weiteren Schritt in der Disaggregation der Wertschöpfungskette darstellte. Arm konnte sich im PC-Markt zwar nicht gegen Intel durchsetzen, gewann aber schnell Marktanteile in Nischenanwendungen hinzu (insbesondere in Anwendungen, die eine energieeffiziente Architektur erforderten, wie z.B. die Spielkonsolen von Nintendo).
Die Allokation erster Gelder in die Entwicklung der Extrem Ultraviolet Fotolithografie (EUV) durch Andy Grove bei Intel im Jahr 1992 (200 Mio. USD), welche jedenfalls in der Theorie mit Wellenlängen bis zu 13,5nm (Nanometern!) funktionieren konnte. Kontext: Zu der Zeit führten Anlagenbauer wie ASML gerade serienmäßig DUV-Werkzeuge mit Wellenlängen von 248 oder 193nm Nanometern ein (bereits unsichtbar für das menschliche Auge). DUV steht dabei für Deep Ultraviolet Lithography (DUV-Werkzeuge hat ASML übrigens auch heutzutage noch im Portfolio). Grundsätzlich gilt: Je kleiner die Wellenlänge, desto kleiner die Strukturen, die auf die Chips “eingraviert” werden können.
Die Etablierung von ASML als einzigem relevanten Hersteller der EUV-Technologie. Dabei konnte ASML (als Ausgründung von Philips) zum einen von seinen engen Verbindungen zu TSMC profitieren (wo Philips immernoch ein relevanter Shareholder war). Zum anderen kam ASML darüber hinaus die “neutrale” Location in den Niederlanden zugute, wodurch das Unternehmen mit Zulieferern aus allen relevanten Teilen der Welt zusammenarbeiten konnte. Dem entsprechend besteht ein wesentlicher Skill von ASML heutzutage in der Fähigkeit, die verschiedensten Zulieferer (dazu gehören ja u.a. auch die deutschen Unternehmen Trumpf und Zeiss) in die Wertschöpfungskette zu integrieren.
In 1993 Rückeroberung der ersten Position im Ranking der größten Halbleiterproduzenten durch die USA (i.W. getrieben durch Intel’s quasi unangreifbare Position im PC und Micron’s gefestigte Position bei DRAMs). Bis 1998 hatten südkoreanische Firmen, insbesondere Samsung, Japan als weltweit größten Hersteller von DRAMs abgelöst. Japans Marktanteil an der Produktion der Halbleiterindustrie nahm von ca. 90 Prozent in den späten 1980er Jahren auf ca. 20 Prozent im Jahr 1998 ab.
Entstehung des Smartphone-Marktes und Fortsetzung der Entkopplung der Wertschöpfungskette in “Fabs” und “Fabless”
Die Etablierung des ersten ernstzunehmenden Chipherstellers in China, SMIC (Semiconductor Manufacturing International Corporation) im Jahr 2000… ca. zur Hälfte finanziert durch US-amerikanische Investoren. Zum Ende der 2000er Jahre hin lag SMIC bzw. die chinesische Halbleiterindustrie generell nur noch ein paar Jahre hinter den Technologieführern aus den USA, Taiwan und Südkorea zurück.
Bis Mitte der 2000er Jahre der Gewinn wesentlicher Marktanteile im Servergeschäft durch Intel (ebenfalls mit der x86 Chip-Architektur). Heute nutzt fast jedes größere Rechenzentrum nach wie vor x86-Chips von Intel oder AMD. Ohne ihre Prozessoren kann die Cloud nicht funktionieren.
Mitte der 2000er Jahre Anfrage von Apple bei Intel bzgl. der Lieferung von CPUs für das erste iPhone (welches in 2007 herauskommen sollte). Der Deal Breaker damals: Steve Jobs wollte nur einen bestimmten Preis für die Chips zahlen, weshalb Intel’s damaliger CEO Paul Otellini das Geschäft nicht machte… weil er sein bestehendes Geschäft nicht mit (zunächst) niedrigmargigeren und weniger attraktiven Produkten torpedieren wollte oder konnte (das so genannte “Innovator’s Dilemma”). In der Folge ließ Apple seine ersten iPhone-Prozessoren von Samsung auf Basis von Arm’s RISC-Architektur designen und produzieren.
In 2009 Ausplittung von AMD in AMD (Chip-Design) und GlobalFoundries (Fabs). Hintergrund: Es wurde immer schwieriger, mit dem Besitz und Betrieb einer Halbleiter-Fabrik Geld zu verdienen. Das Problem war einfach: Jede Generation technologischer Verbesserungen machte die Fabriken teurer. Morris Chang war bereits einige Jahrzehnte zuvor zu einem ähnlichen Schluss gekommen und hatte das Geschäftsmodell von TSMC entsprechend ausgerichtet. TSMC konnte Halbleiter für eine große Bandbreite an Kunden (i.W. Chipdesigner) herstellen und aufgrund der enormen Produktionsmengen substantielle Skalenvorteile (Economies of Scale) realisieren. Die integrierten Hersteller (IDMs, Integrated Device Manufacturers) wie AMD und Intel konnten da nur noch schwer mithalten.
2010er und 20er Jahre: Intel verliert des Anschluss, TSMC skaliert mithilfe der EUV-Technologie bis auf 7nm, AI wird ein großes Thema
Anfang der 2010er: Intel entwickelt weiterhin die fortschrittlichsten Halbleiterprozesstechnologien der Welt (zu der Zeit waren das die 32nm-Chips). Der Abstand zu den wesentlichen Konkurrenten wie TSMC und Samsung beginnt allerdings bereits zu schrumpfen. GlobalFoundries, das AMD-Spin-Off, lag zu dem Zeitpunkt bereits sieben oder acht Quartale hinter Intel zurück.
2012: Erste Nutzung von GPUs (also Grafik-Chips) für das Training des Deep-Learning-Netzwerks AlexNet. GPU-Hersteller wie Nvidia ergänzten in der Folge ihr Produktspektrum um Deep-Learning-bezogene Funktionen sowohl in der Hardware als auch in der Software.
Ankündigung der Zusammenarbeit von GlobalFoundries und Samsung bei der Entwicklung des 14nm-Prozesses in 2014. Dies bedeutete de facto den Ausstieg von GlobalFoundries aus dem Rennen um die kleinstmöglichen Chipstrukturen.
In 2018 Einstellung der Entwicklung des 7nm-Prozesses durch GlobalFoundries. Begründung: Die 14nm- und 12nm-Prozesse reichen für die Anforderungen der meisten Kunden vollkommen aus. AMD lässt seine anspruchsvollsten Designs (7nm und weniger) fortan von TSMC in Taiwan fertigen.
Anfang der 2020er Jahre: Offenbar substantieller Rückstand von Intel bei der Entwicklung der anspruchsvollsten Siliziumchips (7nm, 5nm, 3nm) im Vergleich zu den beiden großen Auftragsfertigern TSMC und Samsung.
In 2020 Ankündigung von Apple, seine Mac-Computer von Intel-Prozessoren auf Apple Silicon umzustellen. Die ersten Macs mit dem Apple M1-Chip wurden am 10. November 2020 vorgestellt. Seit Juni 2023 verwendet die gesamte Mac-Produktpalette nur noch intern entwickelte Apple-Siliziumchips.
2020er Jahre: Dedizierte Entwicklung von Mikrochips für das Training künstlicher Intelligenzen (“AI Accelerators”), zunächst für die Nutzung in Rechenzentren (“AI Data Centers”), später auch in Endgeräten wie Smartphones, Laptops oder z.B. IoT-Anwendungen (“Edge-Computing”). Als Entwickler / Chip-Designer treten hier sowohl Player wie Nvidia und Intel, als auch große Hyperscaler wie Microsoft, Amazon oder Google in Erscheinung.
2024: Ankündigung der Aufsplittung von Intel in eine Chip-Design-Sparte (Intel) und einen Auftragsfertiger (Intel Foundry). Parallel Skalierung von Intel 4 (7nm-Prozess) und dafür erstmaliger Einsatz der EUV-Technologie sowie Entwicklung des 3nm-Prozesses (Intel 3). Gleichzeitig allerdings bereits Kommerzialisierung des 3nm-Prozesses durch TSMC und Samsung.
Key Take Aways aus der historischen Entwicklung der Halbleiterindustrie
Mein wesentliches Learning aus Chip War: Halbleiterhersteller ist nicht gleich Halbleiterhersteller. Märkte, technologische Anforderungen und auch Geschäftsmodelle unterscheiden sich teilweise massiv.
Die gilt insbesondere für die drei Segmente Logik, Memory und andere. Während die Anforderungen an den Produktionsprozess für Logik- und Memory-Chips besonders hoch sind und der R&D-Fokus sozusagen auf die Aufrechterhaltung von Moore’s Law ausgerichtet ist, liegt der Schwerpunkt in anderen Segmenten z.B. eher auf neuartigen Materialien mit besserer Leitfähigkeit oder einer verbesserten Energieeffizienz.
Darüber hinaus finde ich es bemerkenswert, wie sich über die letzten 60-70 Jahre eine Wertschöpfungskette herausbilden konnte, die so stark von einzelnen Ländern bzw. sogar einzelnen Playern (und von deren Expertise) abhängig ist (insbesondere ASML und TSMC).
Habt ihr nach (oder vor) der Lektüre des Buchs irgendwelche Insights zur Halbleiterindustrie? Vielleicht auch zu einzelnen Playern? Würde mich interessieren.
Weitere Ressourcen zur halbleiterindustrie
Buch Chip War: The Fight for the World’s Most Critical Technology (von Chris Miller)
