Oder vielmehr eine Ergänzung die der Fairness halber aber auch nicht fehlen darf. Mit dem Release von Alder Lake, oder vielmehr dem Startschuss für die Reviewer, schossen die Balken oder auch Meinungen hoch, egal ob auf Youtube oder diversen Websites.
Bei den einen wurde Alder Lake hoch gehyped, bei den anderen eher nüchtern betrachtet. So zog ich ein Fazit.
Und das ist nicht falsch, wenn auch so nicht ganz richtig. „Angeprangert“ habe ich die hohe Leistungsaufnahme der großen Alder Lake Prozessoren in Relation zur Leistung. Auch schrieb ich mal, dass es nun in der Hand der Mainboardhersteller liegt den größten Balken erreichen zu können. Und genau so stellt es sich gerade heraus.
Die einen Mainboards performen schneller, die anderen langsamer. Das liegt aber nicht an Alder Lake selbst, sondern an den Werten die die Hersteller diverser Mainboards ins UEFI programmieren. So ist ein 12900k auf Board X schneller als auf Board Y, wenn auch nur gering! Das liegt daran, dass Board X die komplette „Freiheit“ gibt, sprich sauf aus der Dose was Du nur kannst, während Board Y Alder Lake eher im Zaum hält.
Die Rede ist hier von 241 Watt vs. 125 Watt. Die 241 Watt sind von Intel sozusagen die Brechstange um AMD schlagen zu können. Aber die ist überhaupt nicht nötig. Selbst mit „nur“ reichlich 125 Watt ist Intel vorne, bzw. in einer Pattsituation. Im Gro reden wir hier von 5%. Bis zu 10% wenn man die Brechstange aka 241 Watt heraus holt.
Fakt ist aber, Alder Lake arbeitet sehr effizient, wenn man sein Mainboard versteht. Eingebremst auf 125 Watt ist Alder Lake echt eine Ansage, sehr effizient, sozusagen im Sweetspot. An die Leistung per Watt kommt ein aktueller Ryzen nur schwerlich heran, egal ob bei 65 Watt, 105 Watt oder 142 Watt. Er ist aber auch nie weit entfernt, es liegt an den Anwendungen/Spielen die dem jeweiligen Prozessor liegen.
Schluss oder endlich, Intel’s Brechstange musste nicht sein, ich verstehe sie seit jeher nicht. Warum hebelt man PL1 mit PL2 aus? Es hätte gereicht. Nicht locker, aber es hätte gereicht. Somit überlässt Intel den Mainboardherstellern komplett das Ruder und der Anwender darf es richten…
Und wenn ein Betriebssystem es dann mal echt hinbekommt Anwendungen aka Browser, Mailprogramm etc. rein auf den E-Cores laufen zu lassen, und alles andere auf den P-Cores + den E-Cores, ja dann wird so ein Alder Lake mal so richtig effizient. Mal gucken was Windows 11 da so bringt, oder auch nicht…^^
Und vor allem wie AMD nachzieht. Kerne sind wohl nicht mehr alles, das zeigt Intel gerade relativ eindrucksvoll. Die Zukunft hat wohl Intel gerade geschrieben, aber wir werden das sehen. Vorstellbar wäre auch ein Prozessor mit, angenommen, 12 E-Cores und 4 P-Cores, oder 12 P-Cores und 4 E-Cores, je nach Anwendungsgebiet…
Das steckt alles noch in den Kinderschuhen, aber eine Tendenz ist, für mich, sichtbar.
Für alle die mit einem Ryzen 5xxx oder einem Intel 10xxx unterwegs sind ist Alder Lake eher ein Sidegrade als ein Upgrade. Für alles darunter könnte Alder Lake taugen, bei Gamern mit einer Ryzen 3xxx oder Intel 9xxx Serie wohl nur bedingt (außer wirklich jedes Frame zählt), bei Anwendungen aber klar zu empfehlen.
Manchmal ist es besser nichts zu schreiben, wenn man schlicht keine Ahnung hat und es nicht selber mal getestet hat. Einfach mal den Prozessor bzw. die Vcore von Hand einstellen, dann ist Alder Lake dermaßen sparsam, das glaubt gar keiner. 4 – 5 Watt Package Power im Idle, ohne Grafikkarte nur mit IGP habe ich im Idle an der Steckdose auf dem Testplatz 25 Watt gemessen, mit drei M.2 NVME drauf. Voraussetzung dafür dann allerdings ASPM für M.2 SSDs an bzw. C10 State auf dem Package im Bios richtig eingestellt.
Man braucht auch kein überteurtes Board, ich nutze ein MSI Pro Z690-A Wifi, kostet ohne Wifi 189 Euro, und ich kann meinen 12700K bis 5,2 GHz auf allen P-Cores und 4GHz auf den E-Cores übertakten, ein 14+1 VRM reicht vollkommen aus! Den Müll schreiben viele Tester, weil sie nie bedenken, dass es die Mainboards sind, die Herstellerübergreifend viel zu viel Vcore auf die CPUs geben und nicht mehr die VID auslesen. Grund ist, weil die Boards alle @Default quasi schon übertakten, mit so Scherzen wie Multicore Enhancement usw.! So gut wie jede CPU braucht von der Güte her zwischen 0.080 bis 0,150V weniger, als die Boards einstellen, dass dann schnell einen Unterschied von 40 Watt unter Vollast ausmacht. Leider hilft aufklären wenig, solange die ganzen Influencer und Redaktionen ihr Unwissen weitet verbreiten.
Einfach lesen und lernen:
https://www.hardwareluxx.de/community/threads/core-i9-12900k-und-core-i5-12600k-hybrid-desktop-cpus-alder-lake-im-test.1307022/page-9#post-28805015
https://www.hardwareluxx.de/community/threads/core-i9-12900k-und-core-i5-12600k-hybrid-desktop-cpus-alder-lake-im-test.1307022/page-8#post-28800782
Das Review und Fazit gefallen mir gut.
Was die Zukunft bringt bin ich allerdings nicht so ganz auf deiner Schiene denn alles basiert noch auf den größeren Maßen der CPU und deren 12?nm Architektur.
MIT [US] hat aber schon die 6nm Architektur in der Mache… dauert noch. aber in 2-3 Jahren werden die transistoren dann entweder die CPU schrumpfen lassen, woran ich eher zweifle, als sie mindestens doppelt so schnell werden.
dort liegt für mich schon heute der Hase im Pfeffer.
Dann reden wir nochmal drüber ob es sich lohnt andere Maße für hardware zum standart werden zu lassen.
ich sehe daher das aktuelle als nur vorübergehend an.
für mich kommt keine neue hardware in frage bis diese angelegenheit offiziell in der welt ist.
Nö, die neuen Alder Lake CPUs sind ein Intel 10nm Node, wäre bei TSMC aber 7nm, bitte erkundigen. Intel nutzt für Alder Lake einen stark verbesserten 10nm-Prozess. Dieser 10nm-Prozess verfügt über eine höhere Transistorendichte als der 7nm-Prozess der Konkurrenz.
kleiner TIPP, bitte lesen.
ich habe ein ? hinter die 12 gesetzt. es ging nämlich unlängst noch um eine 14nm architektur. spar dir deine ratschläge.
haben wir wieder cringe alert??
fakt ist die cpu wurde vergrößert. warum? weil intel auf briefmarkengröße einfach nicht mehr unter kriegt.. und dichte hat mit größe nichts zu tun
Deine Richtigstellung wird vielen AMD-Fanboys hier aber nicht gefallen
Ich kann denjenigen, die es nicht glauben oder einsehen wollen, den Test von Igorslab empfehlen.
Der Intel kann saufen, muss aber nicht um die Ryzen zu schlagen
Jau, heute ist es egal, ob es um CPUs oder Viren geht, der Glaube ist fest verankert und keiner kehrt von ab, da kann man beweise liefern wie man möchte! Ich arbeite täglich mit den ganzen CPUs, nichts spricht gegen AMD, gegen Alder Lake haben sie aber keine Schnitte, vor allem in Games! Ein 12600K ist jetzt einem 5800X z. B. in allen Belangen vorzuziehen, DDR4 Brett dazu für 200 – 250 Euro, fertig die Soße. Ich habe selber noch einen 5800X samt 580X Brett, der ist dagegen ein Säufer, im Idle, aber vor allen in Games, ein 12600K/12700K ist optimiert teils bis 30 bis 40 Watt sparsamer, 80 zu 40/50 Watt z. B. in Cyberpunk in 4K mit einer RTX 3080. Aber egal, jeder soll kaufen was er möchte, Fakt ist, die Mainboards machen die Ineffizienz in vielen Tests, nicht die CPUs.
“ Fakt ist, die Mainboards machen die Ineffizienz in vielen Tests, nicht die CPUs.“
Kann ich nur bestätigen! In den meisten Fällen wird auch die Spannung von den Mainboardherstellern viel zu hoch eingestellt. Ich hab noch nen alten Ryzen 7 1700 aus 2017 und hab mich mal ans Undervolting gemacht. Ich war erstaunt dass die CPU mit 1,05v stabil lief und keine 1,38v brauchte, wie vom BIOS voreingestellt. Auch für OC auf 3,7Ghz waren „nur“ 1,28v nötig
Letztendlich ist es doch so: egal welche CPU man hat intel oder AMD die schenken sich nix! Den Leistung haben sie beide mehr als genug! Seit Jahren gibt es keine Spiele mehr die die Hardware wirklich an die Grenzen bringen … klar kannst du alles auf ultra extreme stellen mit 4k Auflösung und gar noch upscaling … aber auch da hast du lediglich ne Patt Situation.
Otto Normalo und auch der Enthusiast kriegt Power pur egal ob AMD oder intel.
An die Grenzen bringen kann man jedes System sogar die Top 100 Super Computer. Was zählt ist aber der Alltags Gebrauch!
Und da gibt es kaum Software welche die Systeme an ihre Grenzen bringt!
true story.
fürs netflix reichts immer.
meiner heizt aber auch gut. quasi schon wieder etwas gespart weil doppelter nutzen

Was irgendwelche Dummschwätzer auf Click-Byte-Seiten und in deren Foren aus dritter oder vierter Hand verbreiten ist ja die Seuche schlechthin in den letzten 15 Jahren. Man muss sich die Hardware selber vorknöpfen. Raffen dann viele trotzdem nicht aber hey, gibt abseits vom Mainstream immer Coder und Hardwarespezis, die auch aus per Federschwert schlecht gemachter Hardware viel Gutes ziehen können und alle daren teilhaben lassen, die es mächten. Ich wollte keinen Ryzen 9 aber musste mich leider im Sommer vom alten 24/7-Intel-System trennen. Hatte ich eine Angst vor dem Mobo-Lüfter und habe sicher hier und da ohne Nahbetrachtung darüber geflammt… dabei dreht der nie.
Vor dem Einbau wurde die WLP gewechselt aber auch andere Quellen meinen, der Lüfter ist reine Zierde im Otto-normal-Betrieb dreht er bei mir bisher genau nullmal pro Minute. Woran ich beim Lesen denken musste ist, dass man aus den Ryzen 9 gute 5-10 % mehr Takt herausholt, wenn man sie per ‚Kurve‘ im uEFI untervoltet. Meiner läuft gern unter Last mit mind. 4600 MHz und genehmigt sich dabei weniger Energie als vorher. Also lach, freu und ja auch die neuen Intel-CPU’s werden gut tweakbar sein aber die nächsten angenommenen 5-7 Jahre nach Glaskugelstarren und gesetzter Altersfaulheit, brauche ich keine neue CPU, nur GPU in knapp zwei Jahren. Wovon ich leider abraten muss sind ‚günstige‘ Mainboards. Wo man früher langlebige Qualität bekam, bekommt man heute eher 2-3 Stunden pro Tag -Technik. Also genau für die Dummschwätzer *hüst aber geimpft*, die ja eh alles niedermachen, um im Spiegel zu glänzen, dabei aber immer gerade die Zeit verschwenden, die sie bräuchten, um auf dem realistischen Stand zu sein. Da (bei den Mobos) sollte man genau hinsehen aber sich auch keinen teuren schlecht erweiterbaren Sinnlosscheiß andrehen lassen. meine Meinung… ich fand den Tester-Hype auch eher lächerlich, bzw. langweilig unspektakuläres Balkendiagrammschwingen, aber bei den Watt-Stärken der aktuellen GPU’s fallen die paarhundert Watt mehr oder weniger ja nicht ins Gewicht. Wär’s AMD gewesen, dann aber Hauehaue Keule und Foren voll von Unsinn aus der Märchenwelt, weil siehe oben… *ironic*