Zum Inhalt springen
AndyMcTwist

Intel Corp. (INTC)

Empfohlene Beiträge

krett
vor 31 Minuten von Dandy:

Auch hieß es da schon, dass es bald ARM Server gäbe, die viel energieeffizienter und günstiger wären, als x86 Varianten. Alles nicht eingetreten. Beide Architekturen haben ihren Platz und das wird sich so schnell auch nicht ändern. 

 

Nunja, aber es gibt inzwischen ARM Server und es gibt ARM Supercomputer und (von einigen Randprodukten im Windows-Universum abgesehen) bald die ersten ARM PCs für den Massenmarkt. Im Smartphone und Tablet Bereich ist ARM sowieso Konkurrenzlos.

 

Klar, der Markt wird sich nicht über Nacht drehen und ich würde auch nicht behaupten das X86 verschwinden wird, aber so wie ich es sehe, ziehen sehr dunkle Wolken am Horizont auf für Intel und x86. Die einzige Frage ist (meiner Meinung nach): Wie schlimm wird?

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
· bearbeitet von wpf-leser
Am 15.11.2020 um 12:03 von krett:

Apple Kann Software und Hardware genau auf einander abstimmen

Das dürfte noch der größte Vorteil sein.

Zusammen mit einem Heise-Artikel sowie einer ARM-Grafik ergibt sich hier ein schönes Gesamtbild:

 

Heise schreibt hier:

Zitat

[...] während beim M1 alle acht Kerne gleichzeitig arbeiten – schnelle und effiziente gemeinsam. [...]

 

Um seine vielen Recheneinheiten auch kontinuierlich auslasten zu können, also um möglichst viel Rechenarbeit pro Taktzyklus zu liefern (Instructions per Cycle, IPC), brauchen die Firestorm-Kerne auch große Caches. Zudem können sie laut Anandtech besonders viele Instruktionen zwischenpuffern, um sie so umzusortieren, dass sie die verfügbaren Rechenwerke ausnutzen – das nennt man ein großes Out-Of-Order-Fenster (OOO-Window).

Apple hat seine starken ARM-Kerne also für die gleichzeitige Verarbeitung möglichst vieler Befehle und Daten pro Takt ausgelegt und schöpft so aus niedrigerer Taktfrequenz mehr Rechenleistung als andere Prozessoren. Aber auch umgekehrt wird ein Schuh daraus: Bei einem dermaßen „breiten“ Rechenkern, der auch viele Datenleitungen und große Caches benötigt, steigt die Leistungsaufnahme bei höherem Takt stark an. Hier müssen die Entwickler einen optimalen Kompromiss finden.

Apple hilft dabei, dass man auch Betriebssystem und Compiler in der eigenen Hand hat: Damit lassen sich die CPU-Rechenwerke optimal ausreizen.

Die effizienteren Icestorm-Kerne sind „schmaler“ gebaut als die Firestorms, haben kleinere Caches und takten niedriger. Es schalten also pro Zyklus weniger Transistoren und die lassen sich auch sparsamer auslegen, weil sie nicht so hoch takten müssen.

Warum betreibt man überhaupt große und kleine Kerne? Siehe hier.

 

Einerseits kann man also (ggf. unter Wartezeit für die Software auf Ergebnisse) die großen Kerne gut auslasten. Andererseits (und das wird nicht beschrieben) können störende überschüssige Operationen, die eine optimale Auslastung verhindern würden, parallel (ggf. sogar noch in einer solchen Wartezeit) und effizient von den kleinen Kernen übernommen werden. Solche Optimierungen dürfte hauptsächlich Apple heben können, denn:

Am 15.11.2020 um 12:03 von krett:

Anders als z.B. Qualcomm oder Intel, muss Apple mit seinen Prozessoren nicht mehrere Kunden bedienen, man muss also keine Kompromisse eingehen

Android-Smartphones z.B. kennen mitunter (hardwareseitig) kein big.LITTLE (also die Kombination großer und kleiner Kerne), entsprechend ergeben derartige (Aus-)Optimierungen nur eingeschränkt Sinn und werden vermutlich (teilweise, aber) nicht vollends durchgeführt.

 

---

 

Was außerdem wieder zu Intel zurückführt, in den Faden passt und ich eigentlich schreiben wollte:

 

[langer Text]

Ich finde es erstaunlich, wie gut man seit einiger Zeit in Intels (CPU-)Zukunft blicken kann. Warum das? Nun - einige Chipdesigns liegen schon länger in der Schublade, man konnte aber aufgrund der bekannten Fertigungsprobleme schlicht und ergreifend nicht produzieren. Daher hier gerne ein (obacht: selbst zusammengereimter, aber über die Links hoffentlich gestützter) Ausblick auf die nächste Zeit.

 

2020 ist de facto gelaufen. Wie wir wissen war das nicht unbedingt eine Sternstunde für das Unternehmen. Allerdings scheint man auch Maßnahmen getroffen zu haben, um die Probleme hoffentlich zuverlässig in den Griff zu bekommen.  Interessant ist auch, dass (allen Unkenrufen zum Trotz) die Fertigungsverfahren (bei AMD verwendete "weitestgehend Ur-Version" von 7nm bei TSMC / aktuelle 14nm Intel) an sich nicht besonders weit voneinander entfernt zu sein scheinen. (Was am Rande allerdings auch heißt, dass AMD ganz aktuell noch mindestens zwei potentielle TSMC-Karten (mit entsprechendem Vorlauf und Kapazität seitens TSMC) noch ziehen kann - verbesserte 7nm mit EUV sowie 5nm)

 

Unterdessen darf als sicher gelten, dass Intel das Erfolgsrezept AMDs in Teilen kopieren wird: Chiplets (also der modulare Aufbau der Produkte, mit allen Vor- und Nachteilen) werden auch hier Einzug halten. Wenn man sich ansieht, was Intel heute (und in näherer Zukunft) produziert, kann man sich gut vorstellen, dass der Baukasten gut mit diversesten Bausteinen bestückt sein wird. Problem an der Produktbasis: Bis das entwickelt und marktreif ist, dauert es noch eine ganze Weile - von der Fertigung (noch) ganz zu schweigen, aber das soll (siehe oben) besser werden. Und was hat das nun mit 2020 zu tun? Man fängt bei den (neuen) GPUs (ganz grob) schon einmal damit an.

 

Auch 2021 steht zunächst einmal unter keinem guten Stern, wenngleich ein paar erste (und keine großen) Lichtblicke zu erwarten sind. Zunächst erwartet uns Rocket Lake, wobei (aufgrund der Fertigungsprobleme) eine Portierung von 10nm-Entwürfen auf 14nm nötig war, um überhaupt etwas neues bringen zu können. Dieser Backport ging/geht natürlich mit Zusatzaufwand und Einschränkungen daher - das war etwas anders gedacht. Es wird maximal 8 Kerne geben und so wird man nicht die Multithreading-Leistung der großen AMD-("Mainstream-Desktop"-)CPUs (16 Kerne). Aber: Das neue Design bringt IPC-Verbesserungen mit sich, d.h. die Leistung pro Takt wird steigen. (Siehe z.B. hier sowie da und die beiden folgenden Links) Optimistisch geschätzt könnten so ~20% mehr Single Thread-Leistung herauspurzeln (wobei insbesondere der direkte Rückschluss von Tiger Lake als Richtschnur zwar taugen darf, aber sehr wahrscheinlich nicht erreicht wird).

 

Details hin oder her - es sieht aktuell so aus, als könne man die Single Thread-Leistung derart steigern, dass man sich gegen die aktuellen, kleineren (i.S.d. Kernanzahl) AMD-CPUs vermutlich sehr passabel aufstellen können wird. Die sind definitiv in Reichweite. Natürlich nur bzgl. der Rechenleistung, von der Energieeffizienz her sollte man nicht zu viel erwarten.

 

Sollte das im Q1(/Q2?) gut klappen (was mMn. absehbar der Fall ist), darf das als (wirklich nur) kleiner Teilerfolg gewertet werden. Es dürfte für AMD kein großes Problem sein, hier zu kontern - zumal erwartet werden darf, dass sie zu dem Zeitpunkt weiterhin (auch mit den jetzigen Produkten) die technisch (deutlich!) besseren Gesamtpakete (besagte Energieeffizienz) schnüren werden. (Auch mit den neuen APUs, die also neben dem Hauptprozessor die Grafikeinheit mitbringen und im ersten Halbjahr langsam von AMD kommen sollen.) Hier wird vieles schlicht über den Preis geschehen müssen.

 

What's next? Alder Lake! Und hier kann man ein Wenig die Brücke zum einleitenden Apple-Thema schlagen, denn hier wird es 16 Kerne geben (juhu!), aber auch nur acht große und acht kleine (oops...). Im Klartext: Man wird wohl auch Ende 2021 mit Alder Lake keinen jetzt(!) aktuellen AMD Ryzen 9 5950X mit 16 Kernen in dessen Domäne (Multi-Thread-Leistung) schlagen.


Dafür wird man die Prozessoren (teilweise? - siehe auch nächster Satz) im (bis dahin verbesserten, er "läuft" ja schon eine ganze Weile) eigenen 10nm-Prozess fertigen. Es ist außerdem zu erwarten, dass Intel hierbei Foveros einsetzen wird, um (platt formuliert) Chips "übereinander" zu bauen / anzuordnen. Das wird bereits getan (näheres aus vergangener Zeit auch da), aber in eher kleinem Maßstab (und übrigens - siehe Link - an einem Prozessor, der vier kleine und einen "großen" Kern mitbringt - das wird also kein absolutes Neuland Ende 2021, wenngleich ein völlig anders ausgerichtetes Konstrukt).

 

Durch die Kombination der unterschiedlichen Kerne sind außerdem weitere Optimierungen möglich (s.o. & Intel bietet ja nicht nur Hardware an) und über die rein fertigungsbedingte Effizienzsteigerung hinaus weitere solche in mal mehr, mal weniger häufigen Betriebsszenarien.

 

Daneben gibt es einige funktionale und technische Neuerungen. Sollten DDR5-RAM und PCI Express 5.0 kommen, könnte das bei AMD noch mindestens einige Monate dauern. Den Sprung würde zumindest ich dort erst für Zen 4 in 2022 erwarten.

A propos "Sprung": Im (bereits verlinkten) wccftech-Artikel wird  eine weitere 10 - 20%ige IPC-Steigerung (also wieder "Mehrleistung bei gleichem Takt") vermutet. (Ich meine an verschiedenen Stellen [gemeinsame Quellen nicht ausgeschlossen] etwas von rd. 20-25% Mehrleistung für jede(!) der jetzt gerade anstehenden Generationen gelesen zu haben.) Ob man allerdings aufgrund der ("halb-jungen") 10nm-Fertigung die Taktraten halten können oder das ein Nullsummenspiel (dann womöglich zugunsten eines niedrigeren Energiebedarfs) wird, muss man sehen - ebenso, was AMD in der Zwischenzeit anstellt. Ein Refresh von Zen 3 wäre bestimmt drin, allerdings sollten hier (blanke Mutmaßung meinerseits! entsprechende Überraschungen in alle Richtungen nicht ausgeschlossen) eher geringere Leistungssteigerungen (außerhalb der Fertigung, die ggf. "on top" käme) erwartet werden - hier hat man schon so viel optimiert, dass nicht mehr viel "Flaschenhals" übrig sein dürfte.

 

Insofern könnte es aus meiner Sicht gut sein, dass man gegen Ende 2021 einen Vorsprung in der Single Thread- und / oder Gaming-Leistung auf und / oder ausgebaut haben wird.

 

Für den Zeitraum ab 2022 trübt sich die Glaskugel wieder sehr ein - bis Ende des genannten Jahres steht mit Zen 4 der dickste Brocken für Intel an, vmtl. mit dem Sprung auf 5nm TSMC und "Nachziehen" der Alder Lake-Features (DDR 5, PCIe 5.0) sowie bestimmt einem dickeren Leistungsplus. Mit dem Feuerwerk wird Intel gut zu kämpfen haben. Apple möchte dann vermutlich auf 3nm TSMC sein, Intel idealerweise(!) irgendwann in diesem Jahr seine eigene [spätes Edit]57[/spätes Edit]nm-Fertigung haben. Klappt letzteres, dürfte auch bei Intel die Kernzahl langsam weiter wachsen. Klappt das nicht, dann glaube ich weniger, dass man sich mit (den) knappen externen Fertigungskapazitäten konkurrenzfähig über Wasser halten, aber wohl mit stetiger Verbesserung der 10nm-Fertigung über die Runden kommen kann. Chiplets lassen vermutlich noch etwas auf sich warten, aber spannend ist das Thema schon länger - die Dimensionierung kann recht unterschiedlich ausfallen.

[/langer Text]

 

Wollte das an dieser Stelle gerne mal runterschreiben (nicht mehr und nicht weniger, von daher ist einiges bestimmt kritikwürdig) und die Links sammeln. Mal sehen, wie der Blick auf diese "Konserve" in 14 Monaten ausschaut / sich entwickelt. :)

 

Grüße,

 wpf-leser

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 2 Stunden von krett:

Nunja, aber es gibt inzwischen ARM Server und es gibt ARM Supercomputer und (von einigen Randprodukten im Windows-Universum abgesehen) bald die ersten ARM PCs für den Massenmarkt. Im Smartphone und Tablet Bereich ist ARM sowieso Konkurrenzlos.

Es gibt schon lange ARM Server, aber erfolgreich sind sie nicht, denn bisher fielen die Vorteile gegenüber x86 sehr gering aus. Und ja, der schnellste Supercomputer aus Japan ist derzeit auf ARM basiert. Erreicht wurde das mit sehr vielen Kernen und einem sehr hohen Entwicklungsbudget. Ob es am Ende besser ist, eher viele sparsamere ARM Kerne oder viele hochperformante x86 CPUs mit GPU Beschleunigern einzusetzen, hängt von der Anwendung ab. Bald soll der auf ARM basierte Fugaku aber von einem auf AMD EPYC basierten Supercomputer wieder vom Thron gestoßen werden und das bei 1,5 Exaflops statt den 0,5 Exaflops vom Fugaku. Bisher ist Fugaku mit seiner ARM Technik aber relativ einsam in der Liste der Supercomputer. Ob sich das langfristig als Erfolgsmodell herausstellen wird, muss man sehen. Wie gesagt: bei solchen CPUs spielt der Befehlssatz bei der Rechenleistung nur eine untergeordnete Rolle, wenn überhaupt eine. Die wesentlich größere Softwarebasis für x86 + NVIDIA/AMD GPU spielt da schon eine ganz andere Rolle. Genau dieses Argument ist für den Massenmarkt der Server auch eher entscheiden. Die wenigsten Firmen werden ihre Softwarebasis für eine neue Architektur neu kompilieren oder sogar umprogrammieren (manchmal notwendig), nur um einen marginalen Vorteil auf der Kostenseite zu haben (den ich ARM Server-Lösungen derzeit abstreite und damit stehe ich nicht alleine).

vor 2 Stunden von krett:

Klar, der Markt wird sich nicht über Nacht drehen und ich würde auch nicht behaupten das X86 verschwinden wird, aber so wie ich es sehe, ziehen sehr dunkle Wolken am Horizont auf für Intel und x86. Die einzige Frage ist (meiner Meinung nach): Wie schlimm wird?

Intel's Hauptproblem ist derzeit AMD, nicht ARM oder Apple. Auf ganz lange Sicht sehe ich eher RISC-V als Architektur der Zukunft und nicht ARM oder x86. Die Zeit der lizenzbehafteten Befehlssätze könnte sich schon dieses Jahrzehnt dem Ende zuneigen. Die Bestrebungen, gerade in Asien und Europa, in diese Richtung sind groß. Da bietet sich aber durchaus auch eine Chance für Intel und AMD, denn sie können ihr enormes Know-How im Prozessordesign und deren Fertigung in die Waagschale werfen. Das Silizium wird es am Ende auch mit RISC-V nicht kostenlos geben. Die Konkurrenz wird aber definitiv deutlich schärfer, insbesondere aus Asien.

 

 

@wpf-leser

Klasse Beitrag :thumbsup:

 

Ein paar kleinere Anmerkungen:

 

vor einer Stunde von wpf-leser:

Solche Optimierungen dürfte hauptsächlich Apple heben können, denn:

Android-Smartphones z.B. kennen mitunter (hardwareseitig) kein big.LITTLE (also die Kombination großer und kleiner Kerne), entsprechend ergeben derartige (Aus-)Optimierungen nur eingeschränkt Sinn und werden vermutlich (teilweise, aber) nicht vollends durchgeführt.

Wie kommst Du darauf? big.LITTLE (unintuitive Schreibweise!) gibt es schon lange in ARM SoCs die in Android-Smartphones Verwendung finden. Ich halte deren großen Vorteil aber eher für Marketing von ARM. Ein sorgfältig designter großer Kern kann Funktionseinheiten abschalten, um bei geringer Auslastung ähnlich sparsam wie ein kleiner Kern zu arbeiten. Dann kann man sich aber halt nicht mehr einfach aus dem ARM Regal bedienen und die Kerne einfach ein bisschen aufmotzen. ARM selbst hat wegen der Lizenzgebühren, die sich auch an der Anzahl Kerne ausrichtet, nie ein Interesse daran gehabt, ihre großen Prozessoren diesbezüglich zu optimieren. Würde mich nicht wundern, wenn der big.LITTLE Ansatz langfristig wieder verschwindet, weil es eben auch auf anderem Wege geht und das Scheduling im Betriebssystem nicht so holprig damit läuft.

vor einer Stunde von wpf-leser:

What's next? Alder Lake! Und hier kann man ein Wenig die Brücke zum einleitenden Apple-Thema schlagen, denn hier wird es 16 Kerne geben (juhu!), aber auch nur acht große und acht kleine (oops...). Im Klartext: Man wird wohl auch Ende 2021 mit Alder Lake keinen jetzt(!) aktuellen AMD Ryzen 9 5950X mit 16 Kernen in dessen Domäne (Multi-Thread-Leistung) schlagen.

Siehe oben. Halte ich, auch für Intel, für eine Sackgasse. Intel musste nur irgendwas mit ihren Atom Kernen anfangen, mit denen sie ursprünglich den Mobilfunkmarkt erobern wollten, was bekanntlich gehörig schief gegangen ist (hatte ich aufgrund ihres damals vorhandenen Prozessvorsprungs ehrlich gesagt anders erwartet).

vor einer Stunde von wpf-leser:

Dafür wird man die Prozessoren (teilweise? - siehe auch nächster Satz) im (bis dahin verbesserten, er "läuft" ja schon eine ganze Weile) eigenen 10nm-Prozess fertigen. Es ist außerdem zu erwarten, dass Intel hierbei Foveros einsetzen wird, um (platt formuliert) Chips "übereinander" zu bauen / anzuordnen. Das wird bereits getan (näheres aus vergangener Zeit auch da), aber in eher kleinem Maßstab (und übrigens - siehe Link - an einem Prozessor, der vier kleine und einen "großen" Kern mitbringt - das wird also kein absolutes Neuland Ende 2021, wenngleich ein völlig anders ausgerichtetes Konstrukt).

Problem ist dabei die Wärmeentwicklung. Das ist auch der Grund, warum Apple im M1 den Speicher nicht, wie im Mobilfunkbereich üblich, auf die CPU stapelt, sondern daneben. Dadurch lässt sich die Wärme besser von der CPU zum Kühler ableiten. Ab gewissen thermischen Verhältnissen ist das besser. Man wird sehen, wie Intel das Problem angehen will. Irgendwie scheint mir das Rumprobieren in alle Richtungen als recht hilflos von ihnen.

vor einer Stunde von wpf-leser:

Für den Zeitraum ab 2022 trübt sich die Glaskugel wieder sehr ein - bis Ende des genannten Jahres steht mit Zen 4 der dickste Brocken für Intel an, vmtl. mit dem Sprung auf 5nm TSMC und "Nachziehen" der Alder Lake-Features (DDR 5, PCIe 5.0) sowie bestimmt einem dickeren Leistungsplus. Mit dem Feuerwerk wird Intel gut zu kämpfen haben. Apple möchte dann vermutlich auf 3nm TSMC sein, Intel idealerweise(!) irgendwann in diesem Jahr seine eigene 5nm-Fertigung haben. Klappt letzteres, dürfte auch bei Intel die Kernzahl langsam weiter wachsen. Klappt das nicht, dann glaube ich weniger, dass man sich mit (den) knappen externen Fertigungskapazitäten konkurrenzfähig über Wasser halten, aber wohl mit stetiger Verbesserung der 10nm-Fertigung über die Runden kommen kann.

Generelle Anmerkung dazu: Ich erwarte, dass sich die Prozesssprünge in Zukunft deutlich verlangsamen werden. Sowohl, was die Verkleinerung der Transistoren angeht, als auch einhergehend damit die Verbesserungen bezüglich Energieverbrauch und Geschwindigkeit. Einen Vorteil, wie ihn sich Apple gerade hier mit dem 5nm Prozess verschafft, werden sie nicht jedes Jahr, auch nicht alle zwei oder drei Jahre in Zukunft ziehen können. Damit hängt es künftig noch mehr am CPU Design selbst und da wachsen die Bäume halt auch nicht in den Himmel. Viele der Maßnahmen, die Apple gezogen hat, zielen auf eine extreme Verbreiterung des CPU Designs und sehr große Buffer und Caches ab. Das geht einerseits auf Kosten der maximalen Frequenz, womit sich diese Prozessoren weniger für den High-End CPU Markt eignen, als auch Kosten der Chipfläche. Wenn man nicht weiter schrumpfen kann, weil der nächste Prozessschritt auf sich warten lässt, dann kann man nicht einfach überall "nur" klotzen.

 

Dieser Punkt spielt übrigens Intel in die Tasche. Sie können ja durchaus CPUs designen. Wenn man sich mal ansieht, wie die doch relativ alten Designs auf dem 14nm Prozess im Single-Thread abschneiden, dann muss man dem auch seinen Respekt zollen. Wenn die Prozessvorteile der Konkurrenz aufgrund langsameren Fortschritts schwinden, dann entscheidet es sich an dieser Stelle. AMD und jetzt auch Apple haben aber in dem Bereich auch große Schritte gemacht. Langweilig wird es nicht.

 

Hier ein recht schöner Artikel mit dem Versuch, die Architektur des M1 näher zu beleuchten.

Diesen Beitrag teilen


Link zum Beitrag
stagflation
· bearbeitet von stagflation

Die eigentlichen Probleme bei Intel sind weder das Prozessor-Design, noch die Fertigungstechnik. Es sind die internen Denkmuster des Managements - und die sind viel schwieriger zu reparieren, als technische Probleme.

 

Früher wurde Intel von Ingenieuren geleitet. Die haben versucht, die bestmöglichen Chips zu bauen und alles herauszuholen, was technisch möglich ist. Das hat Intel beliebt und groß gemacht.

 

Mittlerweile wird Intel von Betriebswirtschaftlern geleitet, die versuchen, möglichst viel Gewinn zu machen. Sie haben aufgehört, technische Meisterleistungen zu produzieren - und bauen stattdessen "künstliche" Beschränkungen in ihre Produkte ein.

 

Ein paar Beispiele:

  • Kunde: ich hätte auf meiner Desktop-CPU gerne mehr PCI Lanes und mehr RAM. Intel: technisch möglich, aber machen wir nicht. Wenn der Kunde mehr PCI Lanes oder mehr RAM braucht, soll er halt die viel teureren XEON Prozessoren kaufen.
  • Kunde vor zwei Jahren: ich hätte gerne PCIe 4.0: Intel: technisch möglich, aber machen wir nicht. Vielleicht in ein paar Jahren...
  • Kunde: ich hätte gerne preiswertes 10 GBit/s Ethernet auf meinem Desktop-PC: Intel: unterstützen wir nicht. Wenn wir das für Desktop-PCs einführen, machen wir uns den Server-Markt kaputt.
  • Kunde: ich hätte gerne ECC auf meiner Desktop-CPU, um mir einen kleinen Server zu bauen. Intel: ECC Logik ist designt, wird aber nicht freigeschaltet. Sollte der Kunde halt die teuren Xeons kaufen.
  • Kunde: ich habe hier einen Xeon Prozessor für 2.000 Euro - und würde ihn gerne mit weiteren CPUs zu einem Multi-CPU System zusammenschalten. Intel: die notwendige Logik ist auf der CPU, aber nicht freigeschaltet. Wenn der Kunde Multi-Socket Systeme will, muss er halt die teuren Xeon CPUs für 10.000 Euro pro Stück kaufen. Die Chips sind identisch, aber auf diesen Chips haben wir andere Sicherungen freigeschaltet.

Es mag gut sein, dass man durch solche "Spielchen" kurzfristig mehr Geld verdienen kann. Aber erstens werden die Kunden irgendwann sauer - und andererseits öffnet man der Konkurrenz Tor und Tür. Und dann muss man sich auch nicht wundern, wenn man irgendwann überrollt wird.

Diesen Beitrag teilen


Link zum Beitrag
s1lv3r
vor 3 Stunden von stagflation:

Kunde: ich habe hier einen Xeon Prozessor für 2.000 Euro - und würde ihn gerne mit weiteren CPUs zu einem Multi-CPU System zusammenschalten. Intel: die notwendige Logik ist auf der CPU, aber nicht freigeschaltet.

 

Ich weiß nicht, ob das ein schlüssiges Argument ist. :huh: Das hat AMD doch schon vor 15 Jahren so gemacht. Siehe z.B. Opteron 256 vs. Opteron 856.

 

Ich vermute der Endkunde kann eher glücklich sein, dass er als Abfallprodukt vom Servergeschäft die gleichen Chipsätze mit leicht abgeschwächtem Funktionsumfang für einen Bruchteil des Preises bekommt. (Ist allerdings wirklich nur eine Vermutung von mir, dass wir ohne das Servergeschäft nicht so preisgünstige & leistungsfähige Desktop-CPUs hätten.)

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
· bearbeitet von wpf-leser

@Dandy: Danke für's Lob. :)

vor 4 Stunden von Dandy:

Wie kommst Du darauf?

Weil es auch Smartphones ohne

vor 4 Stunden von Dandy:

big.LITTLE (unintuitive Schreibweise!)

[Stimmt. Ich gebe gerne zu, vorher nochmal nachgeschaut zu haben. ;)]

und einen ganzen Sack an Kernkombinationen und -Settings gibt. (Nichtsdestotrotz können entsprechende Optimierungen z.B. per µCode in der CPU selbst vorgenommen werden, was ich aber alleine nicht als "vollumfänglich" betrachte.)

 

vor 4 Stunden von Dandy:

Würde mich nicht wundern, wenn der big.LITTLE Ansatz langfristig wieder verschwindet, weil es eben auch auf anderem Wege geht und das Scheduling im Betriebssystem nicht so holprig damit läuft.

Zustimmung; da geht's im Laptop (wo der Energiebedarf der CPU allerdings auch eine etwas weniger große Rolle als im Smartphone spielt und man sich für konkurrenzfähige Performance ganz schön strecken muss) ja gerade hin. Allerdings stellt sich mir dann schon die Frage, warum Apple nicht direkt darauf verzichtet - vielleicht sind die Vorteile für Apple doch nicht ganz so klein? ... Womöglich kommt's einfach auf den Einsatz des Werkzeugs an.

 

vor 4 Stunden von Dandy:

Halte ich, auch für Intel, für eine Sackgasse.

Könnte ich mir für manche Server gut vorstellen, wenn diese i.d.R. wenig zu tun haben, punktuell aber doch mal etwas größeres bearbeiten sollen / müssen. (Ginge aber eher in die Lakefield-Richtung und nicht 50:50.) Im Desktop dagegen habe ich auch keine Ahnung, was man damit anfangen will (außer "ohne Last" effizienter zu werden, wenn das - mit den dicken Chipsätzen und durch die Arbeit gegen die Effizienz des Netzteils etc. - überhaupt noch geht).

 

vor 3 Stunden von stagflation:

und andererseits öffnet man der Konkurrenz Tor und Tür

Korrekt, aber immerhin hat man hier bekannte Hebel, um die Türen und Tore wieder zu schließen, wenn es sein muss. (Ob man drauf kommt und das tut, ist etwas anderes. :wacko:)

 

vor 8 Minuten von s1lv3r:

Ich weiß nicht, ob das ein schlüssiges Argument ist. :huh: Das hat AMD doch schon vor 15 Jahren so gemacht. Siehe z.B. Opteron 256 vs. Opteron 856.

Was AMD vor 15 Jahren gemacht hat, interessiert heute glaub' ich nicht mehr. ;)

Diesen Beitrag teilen


Link zum Beitrag
s1lv3r
vor 1 Minute von wpf-leser:

Was AMD vor 15 Jahren gemacht hat, interessiert heute glaub' ich nicht mehr. ;)

:lol::lol: Um es anders zu formulieren: Ich halte es in so gut wie jeder Branche für durchaus marktüblich, künstlich abgeschwächte/funktional limitierte Produkte zu produzieren, um sein eigenes Premium-Segment nicht zu kannibalisieren. Das mag dem ein oder anderen Kunden vielleicht nicht gefallen, aber im Endeffekt ist es einfach nur klug.

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
· bearbeitet von wpf-leser

Ganz schön still geworden - dann wollen wir mal wieder. :)

Am 15.11.2020 um 15:22 von wpf-leser:

Sollte das im Q1(/Q2?) gut klappen (was mMn. absehbar der Fall ist), darf das als (wirklich nur) kleiner Teilerfolg gewertet werden.

Das läuft schon einmal "nach Plan". (heise)

 

Außerdem gibt es eine in meinen Augen positiv überraschende Nachricht aus Richtung der Server-CPUs, die zudem weiter in Richtung der Modularisierung zeigt und die Produkte für manche Anwendungen überlegen erscheinen lässt: HBM-Unterstützung (schneller Speicher, und davon potentiell eine gute Portion) für die Prozessoren kommt. (tomshardware)

 

Und zuguterletzt eine weitere Ausgabe von "des einen Freud', des anderen Leid" aus der Fertigung:

Am 15.11.2020 um 16:50 von Dandy:

Generelle Anmerkung dazu: Ich erwarte, dass sich die Prozesssprünge in Zukunft deutlich verlangsamen werden.

Incoming! (Herausforderungen bei Samsung / TSMC -> pcgh)

Außerdem scheint das Gerangel um Kapazitäten bei TSMC mit dem Geldbeutel entschieden zu werden. (heise)

AMD steht mit den gesicherten 7nm-Kapazitäten noch ok da, aber man kann schon erahnen, dass der absolute Großteil der Kapazitäten aller kommenden modernen Verfahren auf nicht absehbare Zeit erstmal nach Cupertino verbucht wird. (so auch bei 5nm, notebookcheck)

Nachfragebedingt kann sich TSMC anscheinend auch locker erlauben, (allerdings geringe; vmtl. <3%) Rabatte auslaufen zu lassen, heißt: (Fremd-)Fertigung wird etwas teurer. (heise)

Dass Intel selbst Aufträge (mindestens vorübergehend) fremdvergeben will, weiß (und macht) man ja schon länger. (golem)

 

Sehr subjektiv hoffe ich auf eine gut abgewogene Entscheidung bzgl. der eigenen Fertigung - mMn. sollte die im großen Stil erhalten werden (Ausgründung wäre auch ok, aber soweit nichts anderes) und man ist insgesamt schon jetzt auf einem guten Weg. Da gibt es mittlerweile jedoch Druck von außen. (reuters)

Immerhin wollte man sich so oder so Anfang 2021 (ca. Ende Januar) dazu äußern, wie's denn genauer weitergehen soll. (computerbase)

 

Nichtsdestotrotz gibt's Weiterentwicklung, die ich aber (noch?) nicht ausreichend einschätzen kann. (hardwareluxx / intel)

 

Man darf gespannt sein...

 

Grüße,

 wpf-leser

Diesen Beitrag teilen


Link zum Beitrag
Dandy
· bearbeitet von Dandy
Am 2.1.2021 um 20:14 von wpf-leser:

Das läuft schon einmal "nach Plan". (heise)

War mit Tiger Lake schon abzusehen, die ja die gleichen Kerne (Willow Cove?) verwenden. Allerdings scheinen sie nicht sonderlich stromsparend zu sein, erst recht nicht beim für die Desktop-CPUs vorerst weiterverwendeten 14nm Prozess. Singlethreading dürfte mit AMDs Zen 3 ungefähr gleich ziehen (plus oder minus), aber AMD bringt eine deutlich bessere Multithreading-Performance auf den Tisch und bekommt auch wesentlich mehr Kerne, relativ kostengünstig mit ihren Chiplets, integriert. Bei 10nm mag sich das verbessern, aber bis dahin bringt AMD schon wieder die nächste Generation. Die Schlagzahl von AMD ist derzeit einfach höher als bei Intel und das ist es letztlich, was denen zu schaffen macht. Da sehe ich momentan überhaupt keine Anzeichen dafür, dass sich daran was ändert. Das Kulturproblem von Intel hält an und der CEO, der eigentlich ein CFO ist, wird das vermutlich auch nicht geradegebogen bekommen. Bei Intel gehört eigentlich die gesamte Führungsriege, samt Aufsichtsrat, ausgetauscht.

Zitat

Außerdem gibt es eine in meinen Augen positiv überraschende Nachricht aus Richtung der Server-CPUs, die zudem weiter in Richtung der Modularisierung zeigt und die Produkte für manche Anwendungen überlegen erscheinen lässt: HBM-Unterstützung (schneller Speicher, und davon potentiell eine gute Portion) für die Prozessoren kommt. (tomshardware)

Mit HBM hat sich AMD in der Vergangenheit auch schon versucht. Klar kann man schnellen Speicher, sehr eng an den Prozessor angebunden (was sich gemeinsam bedingt), verwenden, um die Geschwindigkeit zu steigern. Leider ist das aber eine sehr teure und unflexible Option. Ähnlich macht es Apple beim M1 ja auch. Auch dort sind die Speicherupgrades (wie bei Apple eigentlich immer) teuer. Und ja: Das spielt bei Servern eine Rolle, da die zwar generell teuerer sind, aber auch in der Regel wesentlich mehr Speicher einsetzen als PCs. Die Kosten für Speicher sind mit entscheidend. Standardspeicher ist da immer noch am günstigsten, selbst wenn man ECC und Buffered-DIMMs einsetzen muss.

Zitat

Und zuguterletzt eine weitere Ausgabe von "des einen Freud', des anderen Leid" aus der Fertigung:

Incoming! (Herausforderungen bei Samsung / TSMC -> pcgh)

Ja, das wird kein Zuckerschlecken. Ich kann mir gut vorstellen, dass es auch in eine Sackgasse führen wird, aus der die Hersteller die nächsten 5 Jahre oder so nicht rauskommen. Bis dahin werden sie aber genug Geld mit ihren 7nm und 5nm Prozessen machen, um selbst solche Fehltritte finanzieren zu können. Wer am Ende das Rennen machen wird, ist momentan schwer abzusehen. TSMC wird auch nicht ewig die Nase vorn haben. Samsung hat sicher eine Chance, Intel muss erst mal die aktuellen Probleme in den Griff bekommen. Verlernt haben sie es deshalb aber noch nicht. Problem wird schlicht das Geld sein. Inzwischen haben TSMC und Samsung einfach mehr davon über als Intel, die sich in diese selbstverschuldete Zwickmühle manövriert haben. Da wieder rauszukommen wird sehr schwierig, da aufgrund der harten Konkurrenz durch AMD langsam das Geld für solche Rieseninvestitionen knapp wird. Das ist der negative Hebel, den ich bei Intel sehe. Das kann ganz schnell gehen.

Zitat

Sehr subjektiv hoffe ich auf eine gut abgewogene Entscheidung bzgl. der eigenen Fertigung - mMn. sollte die im großen Stil erhalten werden (Ausgründung wäre auch ok, aber soweit nichts anderes) und man ist insgesamt schon jetzt auf einem guten Weg. Da gibt es mittlerweile jedoch Druck von außen. (reuters)

Immerhin wollte man sich so oder so Anfang 2021 (ca. Ende Januar) dazu äußern, wie's denn genauer weitergehen soll. (computerbase)

 

Nichtsdestotrotz gibt's Weiterentwicklung, die ich aber (noch?) nicht ausreichend einschätzen kann. (hardwareluxx / intel)

Ausgründung kann man machen, ändert aber nichts daran, dass Intel bisher reichlich wenig erfolgreich im Foundry-Geschäft war/ist. Ich weiß nicht, woran es genau liegt, aber offenbar hat man nicht die nötigen Strukturen und die Kostenposition, um das gut hinzukriegen. Altera musste man ja auch erst übernehmen und dann hat es etliche Jahre Verzögerung gekostet, bis man es mit Stratix 10 endlich auf die Kette bekommen hat, diese Bausteine in den eigenen Fabriken zu fertigen. In der Zwischenzeit hat Xilinx Altera überholt. Nicht gerade eine Erfolgsgeschichte. Auch hier riecht alles nach schlechtem Management, denn prinzipiell ist das Know-How vorhanden, jedenfalls bis 14nm (eingeschränkt auch bis 10nm). Das was Krzanich vergeigt hat, lässt sich jetzt nur noch sehr schwer glattbügeln, denn solche Umwälzungen brauchen Zeit und die hat Intel einfach nicht mehr.

Diesen Beitrag teilen


Link zum Beitrag
boersenschwein

 07.01.2021 bullischer Trendkanal stabil

 

intel1.png

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
· bearbeitet von wpf-leser

Jetzt (zur CES2021) gibt es wieder halbe Neuigkeiten.

 

Neben einem (ersten) Plausch mit dem Mobileye-CEO, der (gefühlt) insbesondere auf die Nachhaltigkeit des Ansatzes und den Arbeitsstand abzielte, hat Intel in größerem Maßstab neue CPUs angekündigt. Zusammengefasst gibt es (wie erwartet) viel "Brechstangen-Taktik" zu sehen, die sich allerdings noch auszahlt.

 

Besonders spannend zu sehen ist für mich, dass es im Notebook-Bereich einerseits [edit: vermutlich] gelingen wird, AMD wieder zu dominieren. Die zeitnahe Einführung (man darf mit Ende Q2 / Anfang Q3 nennenswert am Markt rechnen, also doch auch noch etwas entfernt) von Achtkern-Prozessoren ist aus meiner Sicht ein extrem wichtiger Schritt für Intel. AMD hat hier bereits seit Anfang(!) des vorherigen Jahres lieferbare Produkte, wenn auch kaum Designs (also Geräte, die man damit auch tatsächlich kaufen kann), denen Intel nur das halbe Paket entgegensetzen konnte und kann. Mit der bekannt hohen Single-Thread-Leistung ist der Nutzen hier zwar standpunktabhängig, aber eben nicht über alle Zweifel erhaben. Das wird sich dann aller Voraussicht nach ändern und die neuen AMD-APUs werden das nicht ändern können.

Andererseits heißt es auch, dass die neue CPU "nur" auf 5,0 GHz takten wird. Das ist insofern bemerkenswert, als dass der für den Übergang angekündigte Core i7-11375H SE, der vermutlich durch notwendiges Binning (also das gezielte Selektieren besonders guter Bauteile) in der Realität eher selten anzutreffen sein könnte, das bereits auf einem Kern schafft. Der Achtkerner bekommt das wohl auf mehreren (und womöglich nicht einmal nur zwei) Kernen gleichzeitig hin. Ich deute das so, dass es Intel nicht sinnvoll möglich erscheint, die gesamte Leistung in einen Kern zu stecken, um dessen Frequenz noch höher zu treiben und das wiederum hat den Geschmack einer Limitierung aus der (10nm-)Fertigung.

 

Abseits der CES gab es dann einige Stunden früher eine Nachricht, die gefühlt ziemlich breitgetreten wurde - Gerüchte zu Gesprächen mit Samsung und TSMC. (heise) Aus meiner Sicht ist das wenig überraschend, wenn aus dem Management sowieso angekündigt wurde, Fremdfertigung zu prüfen. Gefühlt zeugt das davon (wenn es denn so ist, was ich aber durchaus vermuten würde - es wäre ja nicht das erste Mal), dass man sich ernsthaft mit dem Thema und v.a. der potentiellen Lösung auseinandersetzt.

 

Gerne weiter so aus meiner (Aktionärs-)Sicht. :)

Diesen Beitrag teilen


Link zum Beitrag
FelixW
· bearbeitet von FelixW

Ich sehe das ganze nicht so rosarot. Aufm Desktop hat AMD ja gezeigt, was für eine Steigerung zwischen der vorherigen Generation und der jetzigen steckt - sowohl in Takt, als auch Leistung pro Takt. Mit den neuen Generationen sehe Ich da ein angleichen der Produkte - im Single Core wird AMD deutlich aufholen und Intel zieht zumindest bei 45W mit den Cores gleich.

 

Am Ende wird da in meinen Augen niemand genug Vorteile haben, um von dominieren sprechen zu können. Am Ende wird entscheiden, wie gut die Chips lieferbar sind (Da sind meines Wissens ja gerade beide sehr stark limitiert) und wie die Laptophersteller die Chips implementieren.

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Ich habe jetzt nur die Kurzmeldung gelesen, aber wirklich überraschendes war da nicht dabei, oder? Tiger Lake gibt es ja schon seit letztem Jahr und die Performance ist bekannt. Willow Cove ist ein ganz guter Kern, der an Zen 2, den es seit Anfang letzten Jahres für Mobilgeräte gibt, im Singlethreading vorbeiziehen kann (bei vergleichbarem Takt). Problem dabei war (und ist), dass Intel diesen nur mit 4 Kernen, statt derer bis zu 8 bei AMD, für Mobilgeräte liefern kann. Wahrscheinlich liegt das an der Ausbeute, möglicherweise läuft der Prozessor aber auch einfach zu heiß oder die Ausbeute bezüglich niedrigem Stromverbrauch ist (noch?) zu niedrig bei dem Prozess.

 

Das Besondere an den AMD Prozessoren der U-Klasse von AMD letztes Jahr waren ja die 8-Kerner, die sogar in Ultrabooks mit bis zu 16 Threads arbeiten können. Es stimmt übrigens nicht, dass es nur wenige Notebooks mit 8-Kernern von AMD im Laptopmarkt gäbe. Die Variante mit den 16 Threads wird nur relativ selten verbaut, die (auch sehr schnelle) Variante mit 8 Kernen und 8 Threads wurde relativ häufig verbaut. Möglicherweise hat AMD einfach zuviel für den 4800U (8 Kerne 16 Threads) verlangt oder die Kühlung ist in den meisten Ultrabook Formaten einfach zu schwierig. Wirklich 15 Watt verbraucht der 4800U nämlich nicht, eher um die 20W, was immer noch ein sehr guter Wert ist.

 

Bei den Notebookprozessoren für größere Notebooks (die Gaming Kisten und 15-17" Klopper) setzen die H-CPUs ein. Diese können bis zu 45W verbraten und da wird Intel immer noch keinen 8-Kerner anbieten. Bei dieser Verlustleistung ist es für AMD gar kein Problem, 8 Kerne mit 16 Threads anzubieten. Dieses Marktsegment ist aber deutlich kleiner als das für die U-CPUs, da die meisten verkauften Notebooks eher kompakt und flach sind heutzutage.

 

Die hohe Singlethreading-Leistung bekommt Intel durch den extrem hohen Takt von bis zu 5GHz hin. Das ist für Notebooks enorm, geht aber mit heftiger Verlustleistung einher. Zumindest hier scheint der 10nm Prozess von Intel also zu liefern. Ich habe aber den Verdacht, dass Intel wenigstens in dieser Kategorie punkten wollte (musste), weil sie es bei Multithreading aufgrund zu weniger Kerne ohnehin nicht konnten. Ob das in Notebooks so glücklich macht, wenn ein Kern ausgelastet ist  und der Lüfter hochheult und die Batterie sich schnell leert, steht auf einem anderen Blatt.

 

Nun konkurriert Intel mit diesen Prozessoren aber nicht gegen die alte 4000er Serie von AMD für Notebooks sondern gegen die kommende 5000er Serie, die vermutlich heute von AMD angekündigt werden wird. Es ist zu erwarten, dass diese ähnliche Performance-Sprünge wie bei den Desktops ermöglichen wird, womit Intel beim Single-Threading vermutlich nur noch einen kleinen Vorsprung haben wird (vielleicht 10%) aber dafür halt nur 4 statt 8 Kernen. So lange es Intel nicht schafft 8 Kerne auch in den unteren Wattzahlen zu liefern, mit entsprechender Performance, hinken sie weiter hinterher.

 

Intels 10nm Prozess ist ungefähr mit dem 7nm Prozess von TSMC vergleichbar, somit setzen im Mobilbereich Intel und AMD vergleichbare Prozesse ein. Das heißt auch, dass derzeit, rein was das Prozessor-Design angeht, AMD und Intel ungefähr gleichauf liegen. Im Singlethreading ist Intel einen Tick besser, bei Multithreading ist AMD (sogar deutlich) besser.

 

Letztlich heißt das also nichts anderes, als dass Intel weiter über den Preis konkurrieren muss. Das nimmt ihnen aber die guten Margen der letzten Jahre. Ob man damit die immer teurer werdende Halbleiterfertigung wieder auf Augenhöhe bringen können wird? ich sehe es derzeit nicht.

 

Damit bleibt also der Schritt zu den Auftragsfertigern. TSMC natürlich, aber auch Samsung, so denn diese mit TSMC gleichziehen können (derzeit noch nicht ganz der Fall). Den Gerüchten zufolge will Intel den 4nm Prozess von TSMC verwenden, der eine Verbesserung des (derzeit nur von Apple verwendeten) 5nm Prozesses ist. Problem dabei: Dieser Prozess ist sehr teuer. Die Waferkosten dürften sich auf rund 17k$ belaufen. Das wird tief in Intels Margen schneiden und es ist noch nicht abzusehen, dass sie mit diesem Schritt an AMD so vorbeiziehen und sie wieder an der Preisschraube drehen können, so wie in der Vergangenheit.

 

Das große Problem ist nun, dass Intel als Aktie aber immer noch so bepreist ist, als hätten sie die vollen Margen ihrer eigenen Halbleiterfertigung (Bruttomargen von zeitweise 65%) und ein Quasimonopol. Beides, so zeichnet es sich ab, ist aber nicht mehr der Fall. Im Gegenteil, müssen sie immer mehr Marktanteile an AMD abgeben und werden künftig auch noch viel mehr Geld an Auftragsfertiger zahlen müssen. Dazu kommen die Kosten für die Sanierung ihrer eigenen Halbleiterproduktion und der möglichen Abspaltung/Umbau zur Foundry.

 

Intel mag weiter im Spiel bleiben und auch ganz gute Produkte rausbringen, aber was den finanziellen Apekt angeht, so sehe ich künftig nur deutlich schlechtere Margen und Verlust von Marktanteilen, sowie sehr hohe Sanierungskosten und/oder Investitionen in die Halbleitersparte. Das wird Intel nicht helfen, um zu alter Dominanz zurückzukommen. Swan führt das Unternehmen wie ein BWLer und das geht nicht das erste mal bei einem Technikunternehmen schief. Was man braucht ist Technologieführerschaft um da langfristig zu bestehen. Das traue ich ihm absolut nicht zu, genausowenig wie dem fehlbesetztem BoD.

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
vor 13 Stunden von FelixW:

Ich sehe das ganze nicht so rosarot.

Es fühlt sich auch für mich ehrlich gesagt nicht 'rosarot' an, wenn ich mir die absolute Situation ansehe. Die könnte deutlich besser sein. Erst in einer relativen Betrachtung zu den widrigen Umständen sieht das aber für mich zumindest ziemlich gut aus.

vor 13 Stunden von FelixW:

Aufm Desktop hat AMD ja gezeigt, was für eine Steigerung zwischen der vorherigen Generation und der jetzigen steckt - sowohl in Takt, als auch Leistung pro Takt. Mit den neuen Generationen sehe Ich da ein angleichen der Produkte - im Single Core wird AMD deutlich aufholen und Intel zieht zumindest bei 45W mit den Cores gleich.

Was die Leistungssteigerung im Desktop angeht hast du schon Recht. An der Stelle darf man mMn. aber nicht vergessen, dass Intel im Laptop seit geraumer Zeit einen Architekturschritt weiter ist als im Desktop. AMD hat es hier vergleichsweise schwerer. Relativ zueinander werden sich die Produkte bis Mitte des Jahres ähnlicher, keine Frage. Absolut sollte dann die Leistungskrone im Laptop aber single- wie multi-threaded bei Intel liegen, während sie (Intel) im Desktop bei den hochpreisigen Prozessoren für "Mainstream"-Desktops (in der Klasse eine vielleicht etwas zweifelhafte Bezeichnung ;) brauchbares Produkt gegen aktuelle 12-Kerner von AMD im Portfolio haben und das meinem Bauchgefühl nach bis mindestens Mitte / Ende 2022 (in Bezug auf die Leistung im Multithreading) weitestgehend so bleiben könnte.

 

vor 13 Stunden von Dandy:

Ich habe jetzt nur die Kurzmeldung gelesen, aber wirklich überraschendes war da nicht dabei, oder?

Im Prinzip nichts überraschendes, eines scheinst du aber übersehen zu haben:

vor 13 Stunden von Dandy:

Diese können bis zu 45W verbraten und da wird Intel immer noch keinen 8-Kerner anbieten.

Doch, doch - Intel bringt mit Tiger Lake-H45 den 8-Kerner. Mit Blick auf AMD in Summe extrem spät und immernoch 4 - 5 Monate nach den mobilen Ryzen 5000, aber damit löscht man hier erstmal ordentlich Feuer.

Es wurde angekündigt, dass die 45 W-TDP-CPU vom blauen Riesen mit 5 GHz auf mehr als einem Kern takten kann.

(Die Tiger Lake-H35 mit 4 Kernen und bis zu 5 GHz auf einem Kern sind dagegen nicht mehr als ein Überbrückungsversuch, um "irgendetwas neues" in der Hand halten zu können. Aber das kennen wir ja...)

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 8 Stunden von wpf-leser:

Absolut sollte dann die Leistungskrone im Laptop aber single- wie multi-threaded bei Intel liegen, während sie (Intel) im Desktop bei den hochpreisigen Prozessoren für "Mainstream"-Desktops (in der Klasse eine vielleicht etwas zweifelhafte Bezeichnung ;) brauchbares Produkt gegen aktuelle 12-Kerner von AMD im Portfolio haben und das meinem Bauchgefühl nach bis mindestens Mitte / Ende 2022 (in Bezug auf die Leistung im Multithreading) weitestgehend so bleiben könnte.

Es bleibt abzuzwarten, ob Intel wirklich bis zu 16 Kerne bei vergleichbarer Verlustleistung und Takt hinbekommt. Selbst dann wäre der Vorsprung irgendwo im unteren einstelligen Prozentbereich, letztlich für den Kunden also egal, was er nimmt. Dann müsste Intel über den Preis konkurrieren, denn AMD ist längst fest etabliert und keine zweitklassige Lösung für die meisten Kunden. Damit verschlechtert sich weiterhin die finanzielle Lage von Intel dramatisch. Verluste an Marktanteilen, Margendruck und immense Investitionen in die Fabs sind eine toxische Mischung unter welcher der aktuelle Kurs, der sich immer noch im Band der letzten Jahre bewegt, wohl kaum Stand halten wird. Vor nicht allzu langer Zeit war Intel schließlich noch absoluter Marktführer und war mit seinen Prozessen ganz vorne dabei. Der Kurs war dabei aber nicht höher als heute.

vor 8 Stunden von wpf-leser:

Im Prinzip nichts überraschendes, eines scheinst du aber übersehen zu haben:

Doch, doch - Intel bringt mit Tiger Lake-H45 den 8-Kerner. Mit Blick auf AMD in Summe extrem spät und immernoch 4 - 5 Monate nach den mobilen Ryzen 5000, aber damit löscht man hier erstmal ordentlich Feuer.

Angekündigt ist der ja schon lange, aber er kommt wohl erst "in einigen Monaten". Ich denke, Intel hat einfach nicht die Ausbeute bei 10nm um mehr als 4 Kerne zu bringen, weshalb sie sich auf den (lukrativeren und energiesinsitiveren) Laptopmarkt konzentrieren. 4 Kerne sind aber auch da schon längst nicht mehr ausreichend. Selbst wenn die 45H auf dem Markt sind, schafft AMD es, 8 Kerne bis runter in die U-Klasse, also kompakte Ultrabooks, zu bringen. Offenbar hat Intel beim 10nm Prozess keine guten Power-Werte oder er streut zu stark. Daher vermutlich die "Super Fins". Was so toll klingt ist also wohl eher nachbessern. Alles Zeit, in der AMD schon dabei ist den Sprung auf 5nm zu machen. Für Intel schließt sich das Zeitfenster so langsam, um noch mal richtig aufholen zu können.

 

Diesen Beitrag teilen


Link zum Beitrag
FelixW
· bearbeitet von FelixW
vor 10 Stunden von wpf-leser:

Es fühlt sich auch für mich ehrlich gesagt nicht 'rosarot' an, wenn ich mir die absolute Situation ansehe. Die könnte deutlich besser sein. Erst in einer relativen Betrachtung zu den widrigen Umständen sieht das aber für mich zumindest ziemlich gut aus.

Was die Leistungssteigerung im Desktop angeht hast du schon Recht. An der Stelle darf man mMn. aber nicht vergessen, dass Intel im Laptop seit geraumer Zeit einen Architekturschritt weiter ist als im Desktop. AMD hat es hier vergleichsweise schwerer. Relativ zueinander werden sich die Produkte bis Mitte des Jahres ähnlicher, keine Frage. Absolut sollte dann die Leistungskrone im Laptop aber single- wie multi-threaded bei Intel liegen, während sie (Intel) im Desktop bei den hochpreisigen Prozessoren für "Mainstream"-Desktops (in der Klasse eine vielleicht etwas zweifelhafte Bezeichnung ;) brauchbares Produkt gegen aktuelle 12-Kerner von AMD im Portfolio haben und das meinem Bauchgefühl nach bis mindestens Mitte / Ende 2022 (in Bezug auf die Leistung im Multithreading) weitestgehend so bleiben könnte.

 

Mit Rosarot meine Ich nicht wie die SItuation aussieht, sondern wie du Sie im Vergleich zu den vorhandenen Informationen beurteilst. Letztere deuten auf ein enges Rennen hin (wobei Ich hier auch leichte Vorteile bei Intel sehe), während du von "wieder dominieren" sprichst. Dass ist für mich einfach eine extrem Intelfreundliche Sicht.

 

Wenn man dominieren auf die Marktanteile bezieht wäre das was anderes - aber dann wäre es ja nichts neues.

Diesen Beitrag teilen


Link zum Beitrag
TWP17

Geht heute fast 10% gen Norden...Grund: pat-gelsinger-intel-ceo

Diesen Beitrag teilen


Link zum Beitrag
stagflation
· bearbeitet von stagflation

Pat Gelsinger ist eine außerordentlich gute Wahl!

 

Es hat mich 2009 sehr gewundert, dass Intel ihn gehen ließ - und ihn nicht schon damals zum CEO befördert hat.

 

Hier die offizielle Meldung von Intel: https://newsroom.intel.com/news-releases/intel-appoints-tech-industry-leader-pat-gelsinger-as-new-ceo/

 

EDIT: Und hier ein Artikel aus 2009 zum damaligen Weggang von Pat Gelsinger von Intel: https://www.heise.de/ct/artikel/Prozessorgefluester-796627.html

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Gelsinger ist auf jeden Fall ein kompetenter Mann und eine Koryphäe. Ob er noch genug Zeit hat, das Ruder rumzureißen, wird sich zeigen. Seine ersten Entscheidungen werden sich in vielleicht drei Jahren auf erste Produkte auswirken. Viel Zeit, die Intel meiner Meinung nicht hat.

Diesen Beitrag teilen


Link zum Beitrag
Laser12

für die Kurse braucht man ja keine Ergbenisse, nur Hoffnungen...

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Jetzt ist es anscheinend offiziell: Intel lässt künftig Prozessoren bei TSMC fertigen. Zwar war man früher auch schon Kunde von TSMC, aber halt nicht bei Prozessoren und auch nicht bei solchen fortschrittlichen (und teuren) Prozessen.

 

Das erlaubt es Intel erstmal, besser gegen AMD konkurrieren zu können, vorausgesetzt, sie halten auf der Design-Seite mit (sonderlich überlegen sind ihre aktuellen Kerne momentan aber nicht). Es wird aber ganz sicher äußerst negative Auswirkungen auf die Margen von Intel haben. Bei 5nm sind es angeblich fast 17k$ pro Wafer. Der mit Intels 14nm Prozess vergleichbare 10nm Prozess von TSMC kostet knapp 6k$ pro Wafer. Das ist also fast eine Verdreifachung des Preises! Da sind dann die Margen von TSMC schon drauf, die bei Intel bei den hauseigenen Prozessen sich auf die Margen hinzuaddieren. Sprich: Die Chips sind bei 5nm exorbitant teurer im Vergleich zum aktuell des Geschäft von Intel dominierenden 14nm Prozess. Zwar werden die Chips auch kleiner, allerdings nutzt man ja die kleineren Transistoren meist für mehr Cache (Speicher) und Kerne. Außerdem ist die Ausbeute bei 5nm sicherlich nicht so gut wie bei 14/10nm.

 

Zum Vergleich: AMD hat eine Bruttomarge von knapp 40%. Intel über 60%. Man kann davon ausgehen, dass AMD aufgrund der viel kleineren Mannschaft eine deutlich bessere Kostenposition als Intel hat. Demnach wird die Marge bei Intel Prozessoren in 5nm, unter Berücksichtigung der Kostenposition von Intel, deutlich unter der von AMD liegen. Ich glaube kaum, dass sich die aktuelle Bewertung damit rechtfertigen lässt, egal wie günstig sie augenscheinlich sein mag.

 

Einen Preiskampf kann sich Intel somit nicht leisten, was, wenn sie nicht die deutlich besseren Designs liefern, dazu führen wird, dass weiter Marktanteile an AMD gehen werden.

 

Interessant wird es auf jeden Fall, was mit der Halbleitersparte von Intel passieren wird. Diese hätte schon vor Jahren, von der Pfeife Krzanich, zu einer Foundry umgebaut werden müssen. Dann hätte man vermutlich viele der Probleme erst gar nicht gehabt. Inzwischen sind die nötigen Investitionen, um ganz vorne mitspielen zu können, aber dermaßen horrend, dass möglicherweise für Intel Foundry nur die Brotkrümel übrig bleiben und sie ähnlich wie Globalfoundries nur wenig Gewinne machen können (TSMC macht die Preise bei den älteren Prozessen meiner Meinung nach absichtlich kaputt). Mal als Referenz dazu: Samsung will über 100Mrd $ die nächsten zehn Jahre in den Ausbau des Halbleitergeschäfts investieren. Intel hat schlicht nicht das Geld dafür. Sie hätten im Gegenteil schon längst die Dividende kürzen müssen, was natürlich unpopulär gewesen wäre. Ein Schritt, den Swan sich wohl nicht getraut hat.

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
Am 13.1.2021 um 08:35 von Dandy:

Es bleibt abzuzwarten, ob Intel wirklich bis zu 16 Kerne bei vergleichbarer Verlustleistung und Takt hinbekommt.

Sicherlich nicht, zumindest nicht dieses Jahr. Alder Lake wird ja sehr ungleiche Kerne haben und mMn. (s.o.) im Multithreading eher kein Konkurrent für die "großen" Ryzen-CPUs, die es jetzt schon(!) zu kaufen gibt.

Am 13.1.2021 um 08:35 von Dandy:

Damit verschlechtert sich weiterhin die finanzielle Lage von Intel dramatisch. Verluste an Marktanteilen, Margendruck und immense Investitionen in die Fabs sind eine toxische Mischung unter welcher der aktuelle Kurs, der sich immer noch im Band der letzten Jahre bewegt, wohl kaum Stand halten wird.

Da bin ich auch sehr gespannt, v.a. was die weiteren internen Pläne angeht. Was hältst du von der Idee, mittelfristig Fertigungsverfahren in Lizenz zu erwerben (sofern jemand eines herausrückt)?

 

Am 13.1.2021 um 10:03 von FelixW:

[...] enges Rennen [...] (wobei Ich hier auch leichte Vorteile bei Intel sehe), während du von "wieder dominieren" sprichst. Dass ist für mich einfach eine extrem Intelfreundliche Sicht.

Danke! Da gehe ich mit. Extrem werden die Unterschiede nicht sein, aber dass man ein (technisch) in allen Punkten besseres Produkt hat, kann ich mir sehr gut vorstellen.

 

vor 8 Stunden von Dandy:

Noch eine ehrliche Frage: Hast du eine Idee, wo TSMC die Kapazitäten hernehmen wird? Ich schätze man fängt bewusst mit einem i3 an, da diese normalerweise (weil ohne vPro) in Business-Geräten (also da, wo Stückzahlen gemacht werden) eher weniger vertreten sein dürften. Zudem könnte man hier (weil keine Speerspitze) extra einen kleineren Die nehmen, was die Ausbeute erhöht.

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 30 Minuten von wpf-leser:

Da bin ich auch sehr gespannt, v.a. was die weiteren internen Pläne angeht. Was hältst du von der Idee, mittelfristig Fertigungsverfahren in Lizenz zu erwerben (sofern jemand eines herausrückt)?

Das ist auf jeden Fall ein sehr interessanter Ansatz. Intel verfügt ja über jede Menge Equipment und Reinräume, die sich dafür nutzen ließen. Allerdings wird es nicht alleine damit getan sein, etwas Know-How zu transferieren. Das funktioniert bei TSMC und Samsung vermutlich mit genau einer bestimmten Linie aus Maschinen. Schon kleinste Variationen werden einem die Ergebnisse verhageln. Intel müsste als sehr präzise die Bedingungen von dem Lizenzierer nachbilden können und vermutlich viel Geld in das gleiche Equipment stecken. Details kenne ich dazu aber keine.

 

So ähnlich haben es ja damals Globalfoundries und Samsung gemacht, als Samsung seinen 14nm Prozess lizenziert hat. Das hat offenbar gut geklappt (und Globalfoundries noch bis auf 12nm weitergetrieben). Ob das bei den noch kleineren Prozessen auch noch so gut ginge, ist die Frage. Samsung wäre aber definitiv ein Kandidat dafür. TSMC kann ich mir nicht vorstellen, dass sie das mitmachen würden. TSMC ist immer noch führend und würde vermutlich zuviel Spezialwissen aus der Hand geben. Samsung wiederum könnte das nutzen, um TSMC Geschäft wegzunehmen und etwas von den hohen Entwicklungskosten reinzubekommen, ohne gleich massiv die eigenen Fabriken aufrüsten zu müssen. Bleibt die Frage, ob sich Intel mit dem Prozess Know-How von Samsung zufrieden geben würde oder ob sie lieber auf TSMC setzen, um wirklich ganz vorne mit dabei sein zu können und gegen AMD ganz sicher keinen Nachteil zu haben. Noch ist Samsung ja nicht so weit wie TSMC.

vor 30 Minuten von wpf-leser:

Noch eine ehrliche Frage: Hast du eine Idee, wo TSMC die Kapazitäten hernehmen wird? Ich schätze man fängt bewusst mit einem i3 an, da diese normalerweise (weil ohne vPro) in Business-Geräten (also da, wo Stückzahlen gemacht werden) eher weniger vertreten sein dürften. Zudem könnte man hier (weil keine Speerspitze) extra einen kleineren Die nehmen, was die Ausbeute erhöht.

Das ist eine sehr gute Frage. Aktuell hat TSMC die Kapazitäten sicherlich nicht. Das Problem lässt sich auch nicht einfach mit Geld lösen, weil solche Fabriken erst gebaut werden müssen und auch die verfügbaren Maschinen, allen voran ASMLs EUV Maschinen, nicht in beliebiger Stückzahl lieferbar sind. Sowas dauert einfach, sonst gäbe es die Engpässe derzeit bei 7nm auch nicht.

 

Das mit dem i3 hat mich auch überrascht. Eigentlich hätte ich erwartet, Intel würde diese teuren Prozesse zuallererst für deren High-End Modelle einsetzen, also Core i7/i9 in Desktops und insbesondere die Serverprozessoren. Vielleicht ist Intel auf der Designseite noch nicht so weit. AMD setzt ja schon länger auf Chiplets, bei denen die Prozessoren auf mehrere Chips verteilt sind, sogar Chips, welche in unterschiedlichen Prozessen gefertigt werden (Kerne und Schnittstellen). Durch diesen relativ einfachen aber genialen Schachzug, begegnet AMD den schlechteren Ausbeuten der High-End Prozesse und hält die Kosten damit in Zaum (kleinere Chips bedeuten mehr gute Chips ohne Fehler und auch die Waferfläche kann besser ausgenutzt werden  - ist ja eine Scheibe). Aus diesem Grund sind übrigens große Chips, wie bspw. High-End Grafikchips und Rechenbeschleuniger für Rechenzentren, bei diesen Prozessen auch so teuer.

 

Der i3 ist ja immer noch ein Vierkerner und wird es bis dahin in der Kategorie vielleicht auch bleiben. Solche Chips sind noch vergleichbar klein, auch mit integrierten Schnittstellen. Andererseits gibt es schon lange das Gerücht, Intel würde selbst auch diesen Chiplet-Ansatz verfolgen. Solche Designs sollten dann eigentlich schon zeitnah verfügbar sein. Für Intels 10nm Prozess, mit dessen schlechter Ausbeute, würde sich das ja auch eignen. Das zeigt wieder mal, wie sehr Intel gepennt hat. Sie hätten eigentlich schon längst ähnliche Designs bei 10nm haben müssen, dann könnten sie auch viel besser mit AMD konkurrieren.

 

Wenn es tatsächlich so käme, dann würde es Intel aber doppelt weh tun. Der ohnehin relativ niedrigpreisige i3 würde dann in einem sehr teuren Prozess gefertigt. Da in dieser Kategorie das Volumen auch relativ groß ist, würde das umso mehr auf die Margen drücken. So ganz passt das für mich ehrlich gesagt nicht zusammen. Evtl. handelt es sich hier ja auch um eine Falschinformation bzw. eine Finte.

Diesen Beitrag teilen


Link zum Beitrag
wpf-leser
vor 2 Stunden von Dandy:

Bleibt die Frage, ob sich Intel mit dem Prozess Know-How von Samsung zufrieden geben würde oder ob sie lieber auf TSMC setzen, um wirklich ganz vorne mit dabei sein zu können und gegen AMD ganz sicher keinen Nachteil zu haben.

Wenn sie denn (wie du richtig geschrieben hast) überhaupt eine Wahl hätten. Ich sehe das größte Problem darin, dass man bei Intel die Produktionsstätten hätte, um Stückzahl zu bringen - und genau das den anderen fehlt. Bis man selbst (vielleicht?) irgendwann mal wieder auf Kurs ist, wäre das ja eine feine Sache - und kostenmäßig sicherlich auch irgendwo zwischen Fremd- und Eigenfertigung, wenn auch bestimmt eher näher an ersterem dran; eine gewisse Ersparnis sollte da schon bei herumkommen. Am Ende wäre es ökonomisch gefühlt für alle Beteiligten eine sinnvolle Option: Intel kann ordentlich Stückzahl bringen und der Lizenzgeber kann entsprechend ordentlich Geld verlangen und ggf. damit (durch die Stückzahl / je nach Bedingungen) sogar (absolut, nicht relativ) noch mehr als mit der begrenzten Auftragsfertigung verdienen. Die zwei einzigen Szenarien, die das (sofern es ausrüstungsmäßig klappt) mMn. blockieren könnten, sind strategische Überlegungen der potentiellen Lizenzgeber oder (für Intel positive) Überraschungen auf der Zeitschiene, sodass der Zeitraum der Lizenzfertigung als zu gering angesehen werden muss, als dass er lohnenswert wäre.

 

In einer Woche wissen wir hoffentlich mehr - auch, was "starker Fortschritt" ist...

 

vor 2 Stunden von Dandy:

Andererseits gibt es schon lange das Gerücht, Intel würde selbst auch diesen Chiplet-Ansatz verfolgen. Solche Designs sollten dann eigentlich schon zeitnah verfügbar sein.

Das Gerücht kommt ja so gesehen ganz offiziell von Intel selbst. Wäre womöglich auch in Sichtweite. Man wollte nur erst in 7nm damit starten... ... ...

Aber zusammen mit dem Anspruch, eine "multi-architecture XPU company" (nochmal hier) zu sein, ergibt das für mich schon einfach heftig Sinn, diesen Ansätze auf die Spitze zu treiben, um dann aus einem vollen Baukasten schöpfen und sehr individuelle Produkte liefern zu können. Das ist meinem Verständnis nach ein ganzes Stück weit die Vision (und bei den GPUs definitiv Programm).

 

vor 2 Stunden von Dandy:

Evtl. handelt es sich hier ja auch um eine Falschinformation bzw. eine Finte.

Anhand der Überlegungen denkbar.

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 8 Stunden von wpf-leser:

Wenn sie denn (wie du richtig geschrieben hast) überhaupt eine Wahl hätten. Ich sehe das größte Problem darin, dass man bei Intel die Produktionsstätten hätte, um Stückzahl zu bringen - und genau das den anderen fehlt. Bis man selbst (vielleicht?) irgendwann mal wieder auf Kurs ist, wäre das ja eine feine Sache - und kostenmäßig sicherlich auch irgendwo zwischen Fremd- und Eigenfertigung, wenn auch bestimmt eher näher an ersterem dran; eine gewisse Ersparnis sollte da schon bei herumkommen. Am Ende wäre es ökonomisch gefühlt für alle Beteiligten eine sinnvolle Option: Intel kann ordentlich Stückzahl bringen und der Lizenzgeber kann entsprechend ordentlich Geld verlangen und ggf. damit (durch die Stückzahl / je nach Bedingungen) sogar (absolut, nicht relativ) noch mehr als mit der begrenzten Auftragsfertigung verdienen. Die zwei einzigen Szenarien, die das (sofern es ausrüstungsmäßig klappt) mMn. blockieren könnten, sind strategische Überlegungen der potentiellen Lizenzgeber oder (für Intel positive) Überraschungen auf der Zeitschiene, sodass der Zeitraum der Lizenzfertigung als zu gering angesehen werden muss, als dass er lohnenswert wäre.

Samsung hat schon eine Fab in Texas, welche sie erweitern wollen und TSMC hat jüngst eine kleine Fab in Arizona aufgebaut. Das ist übrigens eine Folge der Trump'schen Politik, die insbesondere auch fordert, dass staatliche Institutionen und sicherheitsrelevante Anwendungen mit Chips arbeiten, die aus den USA stammen. Man kann von dieser Politik halten was man will, aber ich halte das für ein gesundes Gegengewicht der aggressiven asiatischen Subventions- und Industriepolitik in diesem Bereich, das nur mal am Rande. Vermutlich wird das unter Biden auch so oder so ähnlich weitergeführt werden.

 

Aber zurück zum Thema: Sowohl Samsung als auch TSMC haben in den USA (geringe) Kapazitäten. Die Frage ist nun, ob sie, für Intel, oder auch wegen erwähnter Politik, High-End Prozesse in den USA fertigen lassen wollen. Gerade TSMC wird das voraussichtlich eher ungern machen, da sie sich aufgrund ihrer Technologieführerschaft nur ungern öffnen werden. Auch Samsung ist bisher sehr konzentriert in Korea aktiv, aber es gab eben schon vorher die Kooperation mit Globalfoundries und eben bspw. die Fab in den USA.

 

Dann gäbe es da noch die Fabs von Intel. Ich erinnere mich noch an die Nachrichten, dass Intel etliche leere Fabs eingemottet hatte, weil sie die Nachfrage falsch eingeschätzt hatten (vermutlich aufgrund des gescheiterten Versuchs in das Mobilfunkgeschäft einzusteigen). Ich weiß nicht, ob diese noch frei stehen und sich für die fortgeschrittenen Prozesse eignen (meines Wissens nach braucht es dafür spezielle und recht große Reinräume), aber evtl. würden sich diese gut für eine solche Kooperation eignen.

 

Eine andere Alternative wäre der Verkauf dieser Fabrikhüllen oder eben auch die Veräußerung bestehender Fabs von Intel zur Umrüstung. Da sind denke ich viele Szenarien machbar. Hier darf man auch den kartellrechtlichen Aspekt nicht vergessen und den Fakt, dass die Politik ein Wörtchen mitzureden haben wird. TSMC ist mit Abstand Marktführer und, da in Taiwan ansässig, den US Behörden nicht ganz grün. Schließlich droht Taiwan möglicherweise irgendwann doch noch China in die Hände zu fallen. Südkorea wäre da möglicherweise das geringere Übel und Samsung dominiert den Foundry Markt auch noch nicht so stark.

 

Als letztes gäbe es ja noch die Option von Samsung, die gerüchteweise schon existiert, sich Globalfoundries einzuverleiben, zumindest teilweise. Globalfoundries hat etliche Fabs in den USA und an anderen Orten der Welt, ist also nicht so stark konzentriert wie Samsung oder TSMC. Das gäbe dem Käufer, womöglich Samsung, die Option, sehr schnell sehr stark das Geschäft auszuweiten und die Fertigungspräsenz in der Welt zu verstärken, insbesondere auch in Europa (da vor allem Dresden). Intel fertigt übrigens, das nur am Rande, auch in Europa (Irland) und Israel (Haifa). Das nötige Kleingeld ist ja vorhanden (Samsung hat rund 100 Mrd auf der hohen Kante!).

 

Insgesamt sind aber sowohl TSMC als auch Samsung eher Unternehmen, die diese Operationen lieber bei sich konzentrieren und selbst aufbauen. Da könnte es also auch Probleme mit der Unternehmenskultur geben. Die Situation wird es aber möglicherweise erzwingen, dass sie sich da öffnen und mehr im Ausland ihr Know-How einsetzen, immer mit dem Risiko, dass etwas nach außen dringt.

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...