In den Hardwareforen gehts derzeit heiß her, während die meisten Nutzer davon wohl eher wenig mitbekommen, aber:
In diesen Wochen hat NVidia die neue RTX50xx Serie veröffentlicht. Ich habe mir das Spektakel eine Weile angesehen und rate euch DRINGEND vom Kauf einer der neuen Karten ab. Begründung:
extreme.pcgameshardware.de
Ich rate euch dringend dazu, vorerst die Pfoten von den Karten zu lassen. Sie sind überteuert, fehleranfällig und sowieso kaum lieferbar. Am 28. Februar sollen die neuen Karten von AMD vorgestellt werden und ab dem 6. März sollen sie erhältlich sein. Auch dort wird der Leistungssprung eher mäßig ausfallen, aber FSR 4 soll gute Fortschritte gemacht haben und sowohl Preis als auch Verfügbarkeit werden wohl akzeptabel sein. Also lieber noch ein paar Tage warten und sich dann die Angebote noch mal genauer ansehen. Ich gehe mal davon aus, dass die Karten von NVidia noch viele Monate lang eher schlecht verfügbar und damit allenfalls zu Scalperpreisen erhältlich sein werden.
Hintergrund:
Warum wurden denn so wenige Karten produziert?
Weil NVidia derzeit auf KI setzt. Sie lassen also massenweise Chips für KI-Karten (Profibereich) produzieren, wodurch weniger Slots für Grafikkarten verfügbar sind. Die Chips kommen ja nicht von NVidia selbst, sondern von TSMC. Alle unsere Computerchips kommen von TSMC. Die sitzen in Taiwan und sind die einzigen in der westlichen Hemisphäre, die die nötige Technologie haben, solche Chips zu produzieren. Und deren Produktionskapazitäten sind naturgemäß begrenzt. Zumal sie ja nicht nur für NVidia fertigen, sondern auch für Intel, AMD etc...
Warum gibts für die neuen Kartengenerationen nur so wenig Leistungssprung?
Das liegt daran, dass immer noch in der gleichen Nodegröße produziert wird (derzeit 4nm). Daher kann man Leistungszuwächse nur über bessere Chiparchitektur und/oder mehr Leistungsaufnahme erzielen. Daher benötigt eine RTX 5090 auch satte 600W auf Höchstleistung, was die Kühlung im Gehäuse enorm erschwert. Da kann man sich im Winter die Heizung sparen und im Sommer eine Klimaanlage einbauen...
Ab 2026 soll dann eine Fertigung mit 2nm möglich sein, was dann für den nächsten wirklichen Sprung in Sachen Leistung und Effizienz sorgen wird. Billiger wirds aber kaum werden, denn je kleiner und komplexer die Fertigung wird, desto teurer wird sie auch. Darüber hinaus werden physikalische Leistungszuwächse immer schwieriger werden, da wir uns der Grenze des Machbaren mit der herkömmlichen Chiptechnologie nähern. Kleiner gehts bald nicht mehr, da setzen uns die Naturgesetze eine Grenze.
Das gilt nicht nur für Grafikkarten, sondern für Chips jeglicher Art.
Um generell mehr Leistung zu erzielen, brauchen wir neue Konzepte und Technologien.
EDIT:
Verdammt, das hab ich ganz vergessen. Wer nur relativ anspruchslose Grafikkarten benötigt, der kann sich auch bei Intel umsehen. Intel produziert neuerdings ebenfalls Grafikkarten im Low- bis unteren Midtechbereich. Deren Preise sind akzeptabel.
Wer nicht zockt, sondern nur Bürorechner betreibt, kommt mit den üblichen Onboardgrafikchips locker aus.
EDIT2:
Für Interessenten hier ein Video auf YT von 8auer, der sich den ersten bekannten Fall einer Steckerschmelze genauer betrachtet hat:
View: https://www.youtube.com/watch?v=puQ3ayJKWds
In diesen Wochen hat NVidia die neue RTX50xx Serie veröffentlicht. Ich habe mir das Spektakel eine Weile angesehen und rate euch DRINGEND vom Kauf einer der neuen Karten ab. Begründung:
- Die Karten sind kaum verfügbar, da viel zu wenig davon produziert wurden und überdies der US-Markt vorrangig beliefert wird. Und das bisschen, dass hier dann mal eintrudelt, wird fast in Nullzeit von Scalpern abgegriffen, was dazu führt, dass man leere Shops und dafür etliche Angebote auf Ebay vorfindet, mit Preisen, die bis zu 5x höher als der UVP sind (Ich hatte sogar mal ne 5090 mit einem UVP von 2.329 Euro laut Nvidia auf eby für fast 15.000 Euro gesehen, und selbst die wurde gekauft -.-). Selbst diverse Shops wie z.B. Caseking springen auf die Schiene auf und setzen Karten teilweise schon zum doppelten Preis ein. Leute, kauft nicht bei Scalpern, sondern lasst sie auf ihrem überteuerten Schrott sitzen! Eine Grafikkarte ist ein Luxusgut, die braucht man nicht zum Überleben.
Ein weiterer Preistreiber ist die Verfügbarkeit des Rohstoffs Silizium. Dazu kommt, dass NVidia natürlich keine Karten der Vorgängergeneration mehr produziert, wodurch deren Preise ebenfalls steigen.
- Der Leistungssprung ist kaum vorhanden. Das bisschen Mehrleistung, dass erzielt wird, wird durch plumpen Mehrverbrauch an Strom erzielt. Gerade in Zeiten, wo Energie immer teurer wird, ein Unding. Wer eine Karte aus der RTX 30xx oder 40xx noch hat, muss daher auch nicht zwangsläufig aufrüsten. Das Einzige, was wirklich neu ist, ist MFG (Multiframegeneration) und DLSS 4, wobei DLSS 4 auch auf den älteren Karten läuft. MFG ist die Weiterentwicklung von FG (Framegeneration), in der mittels KI Zwischenbilder errechnet werden. Dank MFG soll es möglich sein, z.B. aus 50 FPS 200 FPS zu generieren. Klingt zu schön um wahr zu sein... Ist es auch, denn es gibt einen Haken. FG und vor allem MFG generieren Input-Lag. Dagegen gibts zwar Reflex und Reflex 2, aber bei beiden Technologien hängt es davon ab, wie gut diese in einem Spiel implementiert sind. Es gibt Spiele, da funktioniert das ganz gut und es gibt Spiele, da kann man das vergessen und man hat Input Lag des Todes.
Der zweite Haken: Damit FG und MFG gut funktionieren, muss man schon eine gewisse Menge an nativen FPS erzielen. Denn die KI muss ja eine gewisse Ausgangsdatenbasis für ihre Berechnungen haben. MFG zu aktivieren empfiehlt sich erst ab ca. 60 FPS und dann kann man tatsächlich bei spielbaren 240FPS landen. Die breite Userschaft wird aber kaum Bildschirme haben, die so viel darstellen, zumal diese natürlich auch ihren Preis haben. Man würde also, um Tearing zu vermeiden, die FPS sowieso begrenzen auf das, was der eigene Monitor kann.
Aber wozu dann MFG aktivieren, nur um dann die erzielte Bildrate sowieso wieder zu begrenzen? Also: Erst Rechenpower investieren, um die FPS künstlich aufzublasen, nur um sie dann wieder künstlich zu beschneiden? Macht irgendwie keinen Sinn.
- Weiter oben hatten wir das Stichwort Schrott: Ja. Die neue Serie hat zahlreiche Probleme. Schmorende Stecker, schwarze Bildschirme, Karten, die mit fehlenden ROPs ausgeliefert werden... Die News über Probleme mit den Karten reißen nicht ab.
News - Geforce RTX 5090 und 5080: Nvidia leitet Untersuchungen ein
Wie Nvidia in seinem Geforce-Forum offiziell bestätigt hat, hat das Unternehmen bereits entsprechende Untersuchungen aufgrund der vermehrt auftretenden Blackscreens bei der Geforce RTX 5090 und Geforce RTX 5080 eingeleitet. Was sagt die PCGH-X-Community zu Geforce RTX 5090 und 5080...
Ich rate euch dringend dazu, vorerst die Pfoten von den Karten zu lassen. Sie sind überteuert, fehleranfällig und sowieso kaum lieferbar. Am 28. Februar sollen die neuen Karten von AMD vorgestellt werden und ab dem 6. März sollen sie erhältlich sein. Auch dort wird der Leistungssprung eher mäßig ausfallen, aber FSR 4 soll gute Fortschritte gemacht haben und sowohl Preis als auch Verfügbarkeit werden wohl akzeptabel sein. Also lieber noch ein paar Tage warten und sich dann die Angebote noch mal genauer ansehen. Ich gehe mal davon aus, dass die Karten von NVidia noch viele Monate lang eher schlecht verfügbar und damit allenfalls zu Scalperpreisen erhältlich sein werden.
Hintergrund:
Warum wurden denn so wenige Karten produziert?
Weil NVidia derzeit auf KI setzt. Sie lassen also massenweise Chips für KI-Karten (Profibereich) produzieren, wodurch weniger Slots für Grafikkarten verfügbar sind. Die Chips kommen ja nicht von NVidia selbst, sondern von TSMC. Alle unsere Computerchips kommen von TSMC. Die sitzen in Taiwan und sind die einzigen in der westlichen Hemisphäre, die die nötige Technologie haben, solche Chips zu produzieren. Und deren Produktionskapazitäten sind naturgemäß begrenzt. Zumal sie ja nicht nur für NVidia fertigen, sondern auch für Intel, AMD etc...
Warum gibts für die neuen Kartengenerationen nur so wenig Leistungssprung?
Das liegt daran, dass immer noch in der gleichen Nodegröße produziert wird (derzeit 4nm). Daher kann man Leistungszuwächse nur über bessere Chiparchitektur und/oder mehr Leistungsaufnahme erzielen. Daher benötigt eine RTX 5090 auch satte 600W auf Höchstleistung, was die Kühlung im Gehäuse enorm erschwert. Da kann man sich im Winter die Heizung sparen und im Sommer eine Klimaanlage einbauen...
Ab 2026 soll dann eine Fertigung mit 2nm möglich sein, was dann für den nächsten wirklichen Sprung in Sachen Leistung und Effizienz sorgen wird. Billiger wirds aber kaum werden, denn je kleiner und komplexer die Fertigung wird, desto teurer wird sie auch. Darüber hinaus werden physikalische Leistungszuwächse immer schwieriger werden, da wir uns der Grenze des Machbaren mit der herkömmlichen Chiptechnologie nähern. Kleiner gehts bald nicht mehr, da setzen uns die Naturgesetze eine Grenze.
Das gilt nicht nur für Grafikkarten, sondern für Chips jeglicher Art.
Um generell mehr Leistung zu erzielen, brauchen wir neue Konzepte und Technologien.
EDIT:
Verdammt, das hab ich ganz vergessen. Wer nur relativ anspruchslose Grafikkarten benötigt, der kann sich auch bei Intel umsehen. Intel produziert neuerdings ebenfalls Grafikkarten im Low- bis unteren Midtechbereich. Deren Preise sind akzeptabel.
Wer nicht zockt, sondern nur Bürorechner betreibt, kommt mit den üblichen Onboardgrafikchips locker aus.
EDIT2:
Für Interessenten hier ein Video auf YT von 8auer, der sich den ersten bekannten Fall einer Steckerschmelze genauer betrachtet hat:
Zuletzt bearbeitet: