2) Mit ~700-750€ könnte es gerade so reichen, denn vernünftige Grafikkarten sind - obwohl Pandemie- und Miningbedingte Preistreiberei vorbei ist -, immer noch sehr hoch.
Das haben wir u.a. den vielen Leuten zu verdanken, die trotz der Wucherpreise während Pandemie & Mining, gekauft haben. Das haben sich die Hersteller - allen voran NVIDIA - gemerkt und die Preise oben belassen.
Eine andere Hürde: Die aktuellen Karten von AMD und NVIDIA, sind auf bestimmte Auflösungen optimiert.
Will man UHD nutzen, aber würde sich auch mit reduzierten Details zufrieden geben, sollte man dennoch nicht in der Mittelklasse zugreifen.
AMD hat mit den RX 6000 den "Infinite Cache" eingeführt. Wobei das nur ein Marketing-Name ist, das ist keine bahnbrechende neue Technologie, das wurde schon früher gemacht, nur nicht in dem Ausmaß.
Cache ist ein Zwischenspeicher der direkt mit im Chip der GPU ist (bei den RX 7000 liegt er direkt daneben, in eigenen Chiplets), welcher um ein vielfaches schneller angesprochen werden kann als der Grafikspeicher der auf der Karte verbaut ist - ganz zu schweigen vom Systemspeicher oder gar der Festplatte.
Mit "Infinite Cache" hat AMD diesen deutlich vergrößert, was zwar nicht billig ist - alles andere als das -, aber laut AMD war es letztendlich günstiger und effektiver den Cache zu vergrößern als den Grafikspeicher breiter anzubinden.
Jedenfalls: Wenn nicht alle nötigen Daten in den Cache passen, muss auf den langsameren Grafikspeicher zurückgegriffen werden, was Leistung kostet, und mit steigender Auflösung passiert das häufiger. Daher verlieren die Radeons seit den RX 6000 mit steigender Auflösung stärker an Leistung - kurioserweise war es früher (bis RX 5000) eine Stärke von Radeons, das diese mit steigender Auflösung weniger Leistung verlieren. Dafür sind sie bei niedrigen Auflösungen fast schon überproportional stark - in Benchmarks die in 720p oder niedriger (teilweise jedoch auch bis FullHD) gemacht werden, schneiden die RX 6000 im Vergleich zu den RTX 30 besser ab als bei den höheren (üblichen) Auflösungen.
Da Cache teuer ist, wird nicht bei der gesamten Produktpalette ein gleichgroßer Cache genutzt, sondern mit sinkender Leistungs- und Preisklasse, wurde auch der Cache kleiner. Dabei hat man Versucht die Cache-Größe auf genau jene Auflösung hin zu begrenzen, welche die Hersteller gedacht haben das die meisten Kunden dieser Preisklassen auch verwenden. Die Einsteiger-Klasse - von einigen auch noch "Mittelklasse" genannt, weil diese Karten die traditionellen 60er Nummern haben, nur das darunter entweder nichts, oder nichts brauchbares kommt - sind auf FullHD ausgelegt.
Da der Infinite Cache doch recht erfolgreich war, hat das NVIDIA bei ihren RTX-40-Karten adaptiert, jedoch ohne von der PR-Abteilung dafür einen Namen ausdenken zu lassen.
Auch hat NVIDIA den Cache nicht so stark vergrößert wie es AMD getan hat. Die ihrerseits, haben mit den RX 7000 den Cache sogar wieder etwas verkleinert, jedoch noch immer größer als bei den RTX-40.
Dadurch haben die RTX-40 auch die "Schwäche" der RX 6000 und 7000 übernommen, nämlich das sie mit höheren Auflösungen stärker an Leistung verlieren.
Was ich damit letztendlich sagen will: Mit einer RTX 4060 oder RX 7600 / 7700, wirst du in UHD keine bzw. nicht lange Freude haben, trotz höherer Rohleistung als deine RTX 3060.
a) Mit Gebrauchtpreise kenne ich mich nicht wirklich aus, bei eBay zu schauen ist da schon ein guter Anhaltspunkt. Vorausgesetzt man verkauft dann auch über eBay, denn was ich mitbekommen habe, ist, das bei eBay teils absurd hohe Preise für Gebrauchtware bezahlt wird.
b) Aktiviere im Grafiktreiber mal Dynamic Super Resolution (DSR) - lass dich nicht vom Namen verwirren, Dynamisch ist daran gar nichts.
Mit DSR kann man höhere Auflösungen rendern lassen, als der angeschlossene Bildschirm nativ Unterstützt. Die Grafikkarte skaliert das Bild dann auch auf die native Auflösung herunter - das nennt sich Downsampling, ist quasi das Gegenteil von DLSS (Upsampling), nur ohne DL (Deep Learning, oder PR-Sprech: "KI").
Iirc muss man bei NVIDIA anschließend noch einrichten welche Auflösungen man haben möchte.
Dies könnte helfen, nach einer Erläuterung, findet man weiter unten Bilder die zeigen wo sich die nötigen Optionen verstecken. Wenn noch Fragen dazu über sind, frag nur.
[EDIT] Für Mitleser: Bei AMD heißt die gleiche Funktion Virtual Super Resolution (VSR). Nach Aktivierung im Treiber muss man nichts weiter machen, als die gewünscht Auflösung im Spiel - oder wahlweise auch auf dem Desktop - auszuwählen.
Für die vermutlich wenigen Intel-Arc-Nutzer: Mir ist nicht bekannt, das Intel eine solche Funktion bietet.[/EDIT]Mit DSR kannst du schon mal ausprobieren ob diese oder jene Auflösung besser für dich geeignet ist.
Die Anforderung an die Grafikkarte ist geringfügig (<2%) höher, als an einem Monitor mit dieser nativen Auflösung.
Bedenke jedoch: Wenn du aktuell ein 24" Monitor hast, und der nächste 27" haben sollte, wird es mit DSR auf deinem jetzigen Bildschirm alles etwas kleiner wirken. So ähnlich wie als wenn der neue Monitor die gleiche Diagonale hätte wie dein jetziger.
Wenn die X und Y Achse der Auflösung mit DSR, keine gerade Vielfache der aktuellen Auflösung ist, leidet darunter leicht die Bildqualität - es wirkt etwas Verschwommen.
Bspw. Von FullHD zu WQHD sind es x1,33, von FullHD zu UHD sind es x2.
c) IPS sticht vor allem durch seine hohe Blickwinkelstabilität hervor, auch die Farbtreue ist hoch. Aber erreicht kein so hohen Kontrast bzw. so tiefen Schwarzwert wie VA.
Dann gäbe es noch TN, dieser ist vor allem schnell - niedrigste Reaktionszeiten - und günstig, auf Kosten der Blickwinkelstabilität und der Bildqualität (Farbqualität, Kontrast und Schwarzwert).
ABER! Diese typischen Eigenschaften verschwimmen bereits seit Jahren. Die Schwächen der jeweiligen Techniken gehen zurück, so das es die besten Modelle mit dem schlechteren Modellen der anderen Techniken aufnehmen kann. Bspw. heutige IPS-Modelle stoßen bei der Reaktionszeit in Bereiche vor, die selbst die ersten TN nicht erreichen konnten.
TN willst du jedoch eher nicht haben, wird zudem nur noch bei sehr billigen, oder stark eSport-Fokussierte Modellen eingesetzt. eSport-fokussiert heißt: FullHD und 360 Hz oder höher. Billig sind die dann auch nicht mehr, und Bildqualität ist auch nur Nebensächlich.
Für die meisten Nutzer, mit durchschnittlichen Anforderungen, bietet derzeit IPS (von besseren Modellen) das beste Allround-Paket. Keine großen Schwächen mehr, mit ausreichend hoher Bildqualität, und das schon zu einem recht günstigen Preis. Wer spezielle Anforderungen oder hohe Qualitätsansprüche hat, für den gibt es evtl. bessere alternativen - nicht immer, auch IPS kann sehr hohe Qualitätsansprüche und spezielle Anforderungen erfüllen, kommt darauf an was gesucht wird.
OLED und VA hatten wir ja schon.
Es gibt noch ein paar die vor allem Marketingbegriffe sind, welche aber effektiv nur Verbesserungen der bereits genannten Techniken sind. Ein Beispiel wäre QLED, was nichts mit OLED zutun hat. Q steht für
Quantum Dot, was vor allem die Farbqualität verbessern soll. Eine Technologie von SAMSUNG.
LED-Monitore sind mit OLED auch nicht vergleichbar. Denn während OLED selbstleuchtend sind, bedeutet LED einfach nur das die Hintergrundbeleuchtung von LEDs übernommen wird - früher Kaltlichtkathode (CCFL) -, LED sind einfach Stromsparender als CCFL.
MiniLED gehören zu den LED-Monitore, jedoch werden kleinere LEDs in größerer Anzahl über die Rückseite verteilt, um eine bessere Ausleuchtung, Kontrast und Schwarzwerte zu erreichen. Bei der Hintergrundbeleuchtung wird unterschieden in Edge, Direct LED und Full Array.
Bei Edge wird, wie es der Name eigentlich schon verrät, das Leuchtmittel an den Seiten angebracht, und mittels Spiegel auf der gesamten Fläche verteilt. Daher ist die Ausleuchtung auch nicht gleichmäßig, und kann beim selben Modell stark schwanken, denn nur ein wenig mehr Druck an einer Stelle während der Produktion, beeinflusst die Position der Spiegel.
Bei Direct LED und Full Array werden die LEDs hinter dem eigentlichen Bildschirm angeordnet, der wesentliche Unterschied ist die Anzahl der LEDs. Mehr LEDs erlauben eine feinere Ansteuerung, und somit kann der Kontrast und Schwarzwert verbessert werden, denn die LEDs können nicht nur in der Helligkeit reguliert werden, sondern wenn Schwarz dargestellt werden soll, auch abgeschaltet werden. Mit Full Array kommt man also näher an OLED heran, die selbstleuchtend sind. Full Array ist aber teuer.
Daneben gibts noch Plasma - iirc nur bei TVs und Videowände. Die sind auch teuer und können einbrennen, haben iirc auch eine recht hohe Leistungsaufnahme.
Zuletzt noch ein paar Worte zu µLED (MikroLED). Man könnte nun evtl. meinen die gehören auch zu den LED- bzw. MiniLED-Modelle, aber nein, tun sie nicht. µLED ist wie OLED Selbstleuchtend. Die µLEDs sind so klein, das 3-4 davon in einem Bildpunkt untergebracht werden können.
Damit sind wir aber auch schon bei deren derzeitigem größten Nachteil: Sie sind noch zu groß - und teuer in der Fertigung. Wenn du nicht in einem Kinosaal sitzt - und ich meine keine kleinen Heimkinos -, und selbst (neue) Luxuswagen aus der Portokasse zahlst, dann sind diese noch keine Option. Falls dir jemand ein µLED-Bildschirm für ein paar hundert Euro anbietet, dann ist das bestenfalls eine PR-Lüge (und eigentlich MiniLED), schlimmstenfalls will dich jemand über den Tisch ziehen und Schrott verkaufen.
µLED gehört die Zukunft, da sie die technischen Schwächen von OLED - nebenbei: O steht für Organisch - nicht haben, aber das wird voraussichtlich (persönliche Einschätzung) nicht vor 2030 der Fall sein, das diese in Geräte für Otto-Normal vorzufinden sind. Auch wenn die Preise afaik bereits von Fünf- auf vierstellig gefallen sind, allerdings je Paneel, und selbst für PC-Monitor-übliche Größen braucht man zumindest 2 davon. Nur will man bei denen nicht so nah davor sitzen, wie es bei PCs üblich ist. Diese Technik braucht noch Zeit.
Zum PS: Das ist die, von mir schon angesprochene Blickwinkelstabilität.
Ich kann nur raten, das du dir Testberichte zu jenen Modelle ansiehst, anhörst und liest, die dich interessieren. Bei jedem halbwegs vernünftigen Test wird auch auf die Blickwinkelstabilität eingegangen.
Die beste deutschsprachige Quelle für Bildschirm-Tests (Monitor und TVs), ist Prad.de.