von Purgatory » 15.01.2026, 18:32
Und genau das ist das. Diese "NPU" ist ein nettes Feature da sie effektiver in KI Aufgaben ist als eine CPU. Das Schlüsselwort ist hier "Machine learning". Im Prinzip kann eine GPU das sogar besser bewältigen als eine NPU es heutzutage überhaupt kann. Auch wenn die NPU spezialisiert darauf ist hat sie ein großes Manko. Den Arbeitsspeicher. Machine Learning braucht massiv Arbeitsspeicher. Wenn ein System mit einer NPU angenommen 32GB an Arbeitsspeicher verbaut hat (Laptop) teilt sich das ganze System den Arbeitsspeicher. CPU, GPU und eben die NPU. Eine dedizierte Grafikkarte aber, mit angenommen 16GB VRam, kann diesen Ram erstmal nutzen bevor überhaupt der Systemram genutzt werden soll. 16GB VRam ist hier nicht viel, gerade in längeren "LearningSessions" läuft der quasi instant voll. Und dummerweise saufen moderne GPUs viel mehr Strom als es eine NPU tut. Aber, er steht den 32GB Systemram gegenüber. Wir können also, theoretisch, 48GB Ram zählen zudem der VRam schneller ist als der Systemram.
Und selbst das ist, wenn man KI wirklich versucht zu nutzen, nicht wirklich viel. Wenn man angenommen eine Bildgeneration nutzt und das Bild nach und nach immer weiter verbessern will läuft der Ram sofort voll und es dauert ewig lange bis ein Ergebnis kommt.
Für solche Szenarien sollte man mindestens 128GB an Ram verbaut haben, mehr ist immer besser. Erklärt auch den massiven Preisanstieg an Speichermedien gerade, da sie von KI Unternehmen benötigt werden wie nichts anderes.
Bei CoPilot ist das etwas anders gelagert, auch wenn es ähnlich funktioniert. CoPilot versucht den Anwender zu unterstützen in seinen Gewohnheiten. CoPilot versucht also zu lernen was es als nächstes vorhalten soll, oder am besten, gleich zu lösen bevor der Anwender es überhaupt anfragt. Das kostet massiv Ram weil es wieder MachineLearning ist, und am Ende massiv Speicherplatz auf der Festplatte als Festspeicher benötigt, da Ramspeicher ja flüchtig ist, ergo beim Neustart oder Runterfahren gelöscht wird. Die verbauten NPUs sollen nur die CPU als auch die Grafik entlasten und gleiche Perfomance bieten lassen wenn KI im Spiel ist. Das steckt alles allerdings noch in den Kinderschuhen und gerade teurer NVMe SSD Speicherplatz kann dann sehr kostbar werden. In Zeiten wo eine halbwegs brauchbare NVMe SSD mit 8TB noch unverhältnismäßig teuer ist gegenüber einer HDD (die wiederum viel zu langsam für KI ist) ist dieses KI gehype mit Vorsicht zu genießen. Nur wer den Luxus hat zum einen viel Ram zu haben als auch eine große NVMe SSD nur für KI Krams, sollte überhaupt damit liebäugeln. Wohlgemerkt, wenn man KI wirklich nutzen will.
Und genau das ist das. Diese "NPU" ist ein nettes Feature da sie effektiver in KI Aufgaben ist als eine CPU. Das Schlüsselwort ist hier "Machine learning". Im Prinzip kann eine GPU das sogar besser bewältigen als eine NPU es heutzutage überhaupt kann. Auch wenn die NPU spezialisiert darauf ist hat sie ein großes Manko. Den Arbeitsspeicher. Machine Learning braucht massiv Arbeitsspeicher. Wenn ein System mit einer NPU angenommen 32GB an Arbeitsspeicher verbaut hat (Laptop) teilt sich das ganze System den Arbeitsspeicher. CPU, GPU und eben die NPU. Eine dedizierte Grafikkarte aber, mit angenommen 16GB VRam, kann diesen Ram erstmal nutzen bevor überhaupt der Systemram genutzt werden soll. 16GB VRam ist hier nicht viel, gerade in längeren "LearningSessions" läuft der quasi instant voll. Und dummerweise saufen moderne GPUs viel mehr Strom als es eine NPU tut. Aber, er steht den 32GB Systemram gegenüber. Wir können also, theoretisch, 48GB Ram zählen zudem der VRam schneller ist als der Systemram.
Und selbst das ist, wenn man KI wirklich versucht zu nutzen, nicht wirklich viel. Wenn man angenommen eine Bildgeneration nutzt und das Bild nach und nach immer weiter verbessern will läuft der Ram sofort voll und es dauert ewig lange bis ein Ergebnis kommt.
Für solche Szenarien sollte man mindestens 128GB an Ram verbaut haben, mehr ist immer besser. Erklärt auch den massiven Preisanstieg an Speichermedien gerade, da sie von KI Unternehmen benötigt werden wie nichts anderes.
Bei CoPilot ist das etwas anders gelagert, auch wenn es ähnlich funktioniert. CoPilot versucht den Anwender zu unterstützen in seinen Gewohnheiten. CoPilot versucht also zu lernen was es als nächstes vorhalten soll, oder am besten, gleich zu lösen bevor der Anwender es überhaupt anfragt. Das kostet massiv Ram weil es wieder MachineLearning ist, und am Ende massiv Speicherplatz auf der Festplatte als Festspeicher benötigt, da Ramspeicher ja flüchtig ist, ergo beim Neustart oder Runterfahren gelöscht wird. Die verbauten NPUs sollen nur die CPU als auch die Grafik entlasten und gleiche Perfomance bieten lassen wenn KI im Spiel ist. Das steckt alles allerdings noch in den Kinderschuhen und gerade teurer NVMe SSD Speicherplatz kann dann sehr kostbar werden. In Zeiten wo eine halbwegs brauchbare NVMe SSD mit 8TB noch unverhältnismäßig teuer ist gegenüber einer HDD (die wiederum viel zu langsam für KI ist) ist dieses KI gehype mit Vorsicht zu genießen. Nur wer den Luxus hat zum einen viel Ram zu haben als auch eine große NVMe SSD nur für KI Krams, sollte überhaupt damit liebäugeln. Wohlgemerkt, wenn man KI wirklich nutzen will.