Monitor Kaufberatung

Alle Fragen zur Hardware

Moderator: Moderatoren

Benutzeravatar
Fridericus Secundus
Primus Pilus
Primus Pilus
Beiträge: 2361
Registriert: 10. Dezember 2010 23:58
Wohnort: Herzogtum Bayern-München
:
Teilnahme an einem Contest Modder Spender

Monitor Kaufberatung

Beitragvon Fridericus Secundus » 15. Februar 2024 13:09

Servus in die Runde (wobei ich ganz unverschämt offen in Richtung Homerclon schiele :strategie_zone_3: )

Ich bin gerade dabei, Teile meiner Hardware zu erneuern - nennt es "Frühjahrsputz" lol Nach dem gamingfähigen Entwicklungslaptop im anderen Thread und einer neuen Maus ziehe ich nun in Erwägung, nach mehr als 10 Jahren mir einen neuen Monitor zu gönnen. Nun war ich nie jemand, der viel Wert auf einen krassen Bildschirm gelegt hat und ich kenne mich mit den techn. Details dementspr. wenig aus. Anlass, über einen Neuen nachzudenken war, dass ich vom Arbeitgeber kürzlich ein neues Dienstnotebook gestellt bekommen habe, welches offenkundig einen 4k Monitor hat (jedenfalls werden Auflösungen >3000px unterstützt, demnach wird es wohl 4k oder was Ähnliches sein). Als ich das an meinen alten Bildschirm angeschlossen hatte und den Vergleich zwischen meiner alten Kiste und dem Laptopbildschirm gesehen habe... :strategie_zone_37: Alter. Schwede.
Der Unterschied ist himmelhoch. Gestochen scharf, signifikant bessere Farben, v.a. gutes Schwarz (ich bevorzuge dark Themes v.a. bei IDEs, daher macht gutes Schwarz im Alltag einen erheblichen Unterschied)... ich war angefixt. Aber: 4k Monitore sind schweineteuer und ich weiß nicht, ob es wirklich gleich 4k sein muss. (W)QHD tut es für meine Zwecke evtl. auch schon - der Unterschied war so krass, dass sicher eine kleinere Verbesserung schon spürbar wäre: ich will einfach ein besseres (schärferes) Bild als bisher mit besseren Farben. Mit Fachbegriffen bin ich zurückhaltend, weil ich mich wie gesagt auf diesem Gebiet 0 auskenne.
Ich hätte die Hoffnung, dass ihr mich da ein bisserl beraten könnt: ich spiele keine Shooter, allenfalls sehr selten RTS im MP => Reaktionszeiten sind daher nicht so relevant, und betreibe keine Bild- oder Videobearbeitung. Reicht da QHD? Welche Bildschirme wären empfehlenswert? Aufgrund meines Anforderungsprofils würde ich ungern mehr als 500€ ausgeben, idealerweise wäre es was zwischen 200 und 350€.
:strategie_zone_80: schonmal!
Ich bin Historiker. Da geht man immer mit ganz niedrigen Erwartungen an die Menschen ran.
-- Don Alphonso

Benutzeravatar
Wüstenkrieger
Administrator
Administrator
Beiträge: 23295
Registriert: 1. November 2010 21:41
Wohnort: Berlin
:
Modder Team-SZ Gründer/Eigentümer der SZ Gewinner Tippspiel
Kontaktdaten:

Re: Monitor Kaufberatung

Beitragvon Wüstenkrieger » 15. Februar 2024 13:17

Du müsstest uns erst einmal auch sagen, wie deine Hardware - hier speziell deine Graka - ausschaut.

Ich müsste sonst in deinen Beiträgen danach suchen, aber es wäre einfacher, dieses hier gleich mit anzugeben. :strategie_zone_29:

Ach ja, hilfreich wäre auch, was dir so an Größe in Zoll vorschwebt.
Bild
Forenregeln.....Lieber einen Tag lang gekämpft wie ein Löwe, als 100 Jahre gelebt wie ein Schaf...

Benutzeravatar
Fridericus Secundus
Primus Pilus
Primus Pilus
Beiträge: 2361
Registriert: 10. Dezember 2010 23:58
Wohnort: Herzogtum Bayern-München
:
Teilnahme an einem Contest Modder Spender

Re: Monitor Kaufberatung

Beitragvon Fridericus Secundus » 15. Februar 2024 14:52

Du hast nat. vollkommen recht ;)
Ich hab eine ASUS Dual GeForce RTX 3060 V2 OC LHR verbaut und würde größentechnisch bei 27'' liegen wollen, wobei 29 (WQHD) auch möglich wären (dann wird aber eng auf dem Schreibtisch)
Ich bin Historiker. Da geht man immer mit ganz niedrigen Erwartungen an die Menschen ran.
-- Don Alphonso

Benutzeravatar
Wüstenkrieger
Administrator
Administrator
Beiträge: 23295
Registriert: 1. November 2010 21:41
Wohnort: Berlin
:
Modder Team-SZ Gründer/Eigentümer der SZ Gewinner Tippspiel
Kontaktdaten:

Re: Monitor Kaufberatung

Beitragvon Wüstenkrieger » 15. Februar 2024 15:52

Curved oder Flacher Bildschirm? :strategie_zone_272:
Bild
Forenregeln.....Lieber einen Tag lang gekämpft wie ein Löwe, als 100 Jahre gelebt wie ein Schaf...

Benutzeravatar
Fridericus Secundus
Primus Pilus
Primus Pilus
Beiträge: 2361
Registriert: 10. Dezember 2010 23:58
Wohnort: Herzogtum Bayern-München
:
Teilnahme an einem Contest Modder Spender

Re: Monitor Kaufberatung

Beitragvon Fridericus Secundus » 15. Februar 2024 15:53

emotionslos. Wenn curved günstig zu haben ist, gerne curbed, sonst preisbewusst flach.
Ich bin Historiker. Da geht man immer mit ganz niedrigen Erwartungen an die Menschen ran.
-- Don Alphonso

Benutzeravatar
Homerclon
Moderator
Moderator
Beiträge: 11457
Registriert: 2. Dezember 2010 19:33
Wohnort: Erde, Sonnensystem, Milchstraße
:
User des Monats Teilnahme an einem Contest Team-SZ Pfeiler der Community Kleinspender Gewinner Userwahl

Re: Monitor Kaufberatung

Beitragvon Homerclon » 15. Februar 2024 16:00

Erstmal: 4K bezeichnet alle Auflösungen mit rund 4000 Pixel - üblicherweise ist die Breite gemeint. Viele meinen mit 2K WQHD - also 2560x1440 -, dabei kann gemäß der zuerst genannten Logik 2K auch für FullHD stehen.
Es gibt auch "DCI 4K" - manchmal auch als "4K DCI" -, was afaik als erstes die Bezeichnung 4K nutzte, durch das Vorangestellt DCI (Digital Cinema Initiatives; ein Joint Venture von Hollywood-Filmunternehmen, bezieht sich also auf Kinofilm-Produktionen) bezeichnet es die Auflösung 4096x2160 (das ist kein 16:9, sondern annähernd 17:9).
Das mit 4K umgangssprachlich UHD (3840x2160) gemeint wird, kann da im Zweifelsfall schon mal verwirrend sein. Ich bevorzuge daher UHD, da es präziser ist.

Wie Wüsti mit seiner Frage schon andeutete: Die Auflösung geht vor allem zu lasten der Grafikkarte - eigentlich komplett, wenn denn das Seitenverhältnis (16:9, 21:9, 32:9 usw.) identisch bleibt.
Mit der 3060 - hoffentlich die 12 GB-Variante, nicht die beschnittene 8GB, die nicht (nur) aufgrund des kleineren Speichers langsamer ist - ein Modell, das in UHD lediglich für ältere Titel geeignet ist. Auch wenn bei Strategiespiele in der Regel die GraKa weniger gefordert wird, gibt es immer mal wieder ausnahmen, wie bspw. die Total War-Reihe, bei der auch die GraKa ordentlich was zu tun bekommt.

Also mit einer 3060 würde ich von einem UHD-Bildschirm abraten. Auch bei WQHD dürftest du bei so manchem Titel bereits Abstriche machen müssen, und dabei meine ich nicht mal Grafikkracher wie Cyberpunk 2077. Und wenn es sich doch um die 8GB-Variante der 3060 handeln sollte, dann wirst du auch bei FullHD bereits so manches Detail in aktuellen Titeln reduzieren müssen, das besonders viel Grafikspeicher belegt - Texturen, oder auch Raytracing.
Davon abgesehen: UHD-Bildschirme kosten kein Vermögen, die gibt es bereits ab 210€. Dafür kann man kaum etwas Spieletaugliches erwarten, aber wenn man genügsame Ansprüche hat, kann man für nur wenig mehr bereits welche bekommen.


Wenn du tiefes Schwarz haben willst, bleiben derzeit 2 Optionen: VA-Panel oder OLED.
Letzteres ist darin besser, weil es keine Hintergrundgrundbeleuchtung gibt, sondern die Pixel selbst leuchten. Das heißt, wenn etwas Schwarz ist, bleibt der Pixel abgeschaltet.
VA-Panel haben ein paar Nachteile, zum einen leiden sie häufig unter Lichthöfe (also keine gleichmäßige Ausleuchtung). Das ist in der Regel jedoch nur in sehr dunklen Szenen und einem abgedunkelten Raum bewusst wahrnehmbar.
Zum anderen wären da dunklen Farbwechsel - also bspw. von Schwarz auf Anthrazit - haben sie hohe Reaktionszeiten = sie Schmieren. Brauchbare Reaktionszeiten sind daher nicht nur für Shooter- und MP-Spieler relevant.
OLED ist vor allem teuer (mit WQHD startet es bei 690€), und kann sich einbrennen. Wer lange statische Elemente auf dem Bildschirm hat, muss da vorsichtig sein.
Ein probates Mittel um dem Einbrennen Vorzubeugen, sind altmodische Bildschirmschoner - aber kein einfaches Schwarz. In den Energieeinstellungen des Betriebssystems sollte man einstellen, das erst für ein paar Minuten ein Bildschirmschoner aktiv wird, bevor der Bildschirm abgeschaltet wird.
Wer Bildschirm, TV etc. üblicherweise vom Strom trennt, wenn er diesen gerade nicht nutzt, für den ist OLED auch nicht geeignet. Diese Geräte haben nämlich auch vom Hersteller eine Funktion integriert, die dem Einbrennen vorbeugen sollen, das funktioniert aber eben nur wenn sie nicht vom Strom getrennt werden. Dies wird automatisch durchgeführt, Voraussetzung ist jedoch das der Bildschirm im Standby ist - nicht durchgängig.


Ob Curved / Gerade würde ich von der Größe abhängig machen. Erst ab einer gewissen Größe profitiert man von Curved. Dafür gehst du am besten mal in einen Elektro-Discounter, und schaust es dir an. Stell dich dazu ungefähr in der Entfernung zum Bildschirm auf, in der du Zuhause auch davon entfernt sitzt.

Schau dir mal die Samsung Odyssey Bildschirme an, die gibts in WQHD ab ~220€, und sind ziemlich gut. Wahlweise Flach oder Curved.
Aber auf die Spezifikation achten, gibts nämlich mit VA und IPS - bei meinem Link ist IPS rausgefiltert, es wird nur VA angezeigt.
Bild
- Medieval 2 TW - Gildenführer
- Meine PC-Konfigurationen für Gamer (Kaufberatung)
- F*CK TPM!

Benutzeravatar
Fridericus Secundus
Primus Pilus
Primus Pilus
Beiträge: 2361
Registriert: 10. Dezember 2010 23:58
Wohnort: Herzogtum Bayern-München
:
Teilnahme an einem Contest Modder Spender

Re: Monitor Kaufberatung

Beitragvon Fridericus Secundus » 16. Februar 2024 08:18

Spannend.
Also zunächst mal zur Terminologie: ich übernehme dann ebenfalls UHD ;-) Und OLED scheidet damit aus, v.a. weil zu teuer. Die beschriebenen Nachteile von VA wären m.E. verkraftbar, wenn der Bildschirm gute Reaktionszeiten bietet. Also wäre ein WQHD Bildschirm mit VA-Panel sicher eine Option.
In meinem Kopf stellen sich aktuell zwei Varianten raus:

1) bestehende Grafikkarte (ich hab die 12GB Variante, da schon beim Kauf vor gut einem Jahr die 8GB Variante als zu schmalbrüstig galt) und WQHD-Monitor, z.B. einer der verlinkten Samsung Odyssey Bildschirme. Die sind genau im preislichen Rahmen.

2) Grafikkarte erneuern und günstigen UHD Monitor nehmen, Budget bis ca. 500€ plus Wiederverkaufswert der alten GraKa. Da stellt sich die Frage, welche Grafikkarte man da nehmen könnte, sodass noch Budget für einen Monitor übrig bleibt. Zudem hängt das von mehreren Punkten ab:

a) wieviel bekomme ich für die RTX 3060 noch? In der Bucht sieht man sie in den verkauften Angeboten bei ~240€ (nat. immer etwas duselabhängig)
b) Bietet UHD im Vgl. zu WQHD für mein Anwendungsgebiet wirklich spürbaren Mehrwert? Meine Spielerepertoire ist nicht sonderlich grafikhungrig: in letzter Zeit Anno 1800, Medieval Dynasty, MSFS 2020, Bannerlord, Attila/Rome, AoE2 DE. Ab April Manor Lords :-D Aber man weiß ja nie, worauf man mal Lust hat...
c) gilt allgemein: man liest von weiteren Technologien wie IPS- was ist das bzw. gibt es noch weitere technische Aspekte, auf die man achten sollte?
=> Wenn ich Option 2) durchziehe, würde ich noch ein paar Monate warten, um mein Spielgeld-Budget, aus dem das bezahlt wird, etwas aufzufüllen ;-)

PS: was mich bei meinem alten Bildschirm aktuell sehr stört: je nach Blickwinkel sind Teile des Monitors dunkler bzw. deutlich schlechter sichtbar. So ähnlich wie der (beabsichtigte) Blickschutz bei den Displays von Bankautomaten, nur nicht so extrem. Das führt z.B. dazu, dass ich - je nach Sitzwinkel und Kippwinkel des Bildschirms- die obere Leiste meiner IDE nicht gut sehen kann, weil sie signifikant dunkler ist. Ich bilde mir ein, dass das früher besser war. Ist das ein Altersproblem oder ein allgemeines Qualitätsproblem? Bei meinem (privaten und dem beruflichen) Notebook tritt der Effekt z.B. nicht bzw. nur marginal bei wirklich extremen Winkeln auf.
Ich bin Historiker. Da geht man immer mit ganz niedrigen Erwartungen an die Menschen ran.
-- Don Alphonso

Benutzeravatar
Homerclon
Moderator
Moderator
Beiträge: 11457
Registriert: 2. Dezember 2010 19:33
Wohnort: Erde, Sonnensystem, Milchstraße
:
User des Monats Teilnahme an einem Contest Team-SZ Pfeiler der Community Kleinspender Gewinner Userwahl

Re: Monitor Kaufberatung

Beitragvon Homerclon » 16. Februar 2024 18:36

2) Mit ~700-750€ könnte es gerade so reichen, denn vernünftige Grafikkarten sind - obwohl Pandemie- und Miningbedingte Preistreiberei vorbei ist -, immer noch sehr hoch.
Das haben wir u.a. den vielen Leuten zu verdanken, die trotz der Wucherpreise während Pandemie & Mining, gekauft haben. Das haben sich die Hersteller - allen voran NVIDIA - gemerkt und die Preise oben belassen.

Eine andere Hürde: Die aktuellen Karten von AMD und NVIDIA, sind auf bestimmte Auflösungen optimiert.
Will man UHD nutzen, aber würde sich auch mit reduzierten Details zufrieden geben, sollte man dennoch nicht in der Mittelklasse zugreifen.
AMD hat mit den RX 6000 den "Infinite Cache" eingeführt. Wobei das nur ein Marketing-Name ist, das ist keine bahnbrechende neue Technologie, das wurde schon früher gemacht, nur nicht in dem Ausmaß.
Cache ist ein Zwischenspeicher der direkt mit im Chip der GPU ist (bei den RX 7000 liegt er direkt daneben, in eigenen Chiplets), welcher um ein vielfaches schneller angesprochen werden kann als der Grafikspeicher der auf der Karte verbaut ist - ganz zu schweigen vom Systemspeicher oder gar der Festplatte.
Mit "Infinite Cache" hat AMD diesen deutlich vergrößert, was zwar nicht billig ist - alles andere als das -, aber laut AMD war es letztendlich günstiger und effektiver den Cache zu vergrößern als den Grafikspeicher breiter anzubinden.
Jedenfalls: Wenn nicht alle nötigen Daten in den Cache passen, muss auf den langsameren Grafikspeicher zurückgegriffen werden, was Leistung kostet, und mit steigender Auflösung passiert das häufiger. Daher verlieren die Radeons seit den RX 6000 mit steigender Auflösung stärker an Leistung - kurioserweise war es früher (bis RX 5000) eine Stärke von Radeons, das diese mit steigender Auflösung weniger Leistung verlieren. Dafür sind sie bei niedrigen Auflösungen fast schon überproportional stark - in Benchmarks die in 720p oder niedriger (teilweise jedoch auch bis FullHD) gemacht werden, schneiden die RX 6000 im Vergleich zu den RTX 30 besser ab als bei den höheren (üblichen) Auflösungen.
Da Cache teuer ist, wird nicht bei der gesamten Produktpalette ein gleichgroßer Cache genutzt, sondern mit sinkender Leistungs- und Preisklasse, wurde auch der Cache kleiner. Dabei hat man Versucht die Cache-Größe auf genau jene Auflösung hin zu begrenzen, welche die Hersteller gedacht haben das die meisten Kunden dieser Preisklassen auch verwenden. Die Einsteiger-Klasse - von einigen auch noch "Mittelklasse" genannt, weil diese Karten die traditionellen 60er Nummern haben, nur das darunter entweder nichts, oder nichts brauchbares kommt - sind auf FullHD ausgelegt.

Da der Infinite Cache doch recht erfolgreich war, hat das NVIDIA bei ihren RTX-40-Karten adaptiert, jedoch ohne von der PR-Abteilung dafür einen Namen ausdenken zu lassen.
Auch hat NVIDIA den Cache nicht so stark vergrößert wie es AMD getan hat. Die ihrerseits, haben mit den RX 7000 den Cache sogar wieder etwas verkleinert, jedoch noch immer größer als bei den RTX-40.
Dadurch haben die RTX-40 auch die "Schwäche" der RX 6000 und 7000 übernommen, nämlich das sie mit höheren Auflösungen stärker an Leistung verlieren.

Was ich damit letztendlich sagen will: Mit einer RTX 4060 oder RX 7600 / 7700, wirst du in UHD keine bzw. nicht lange Freude haben, trotz höherer Rohleistung als deine RTX 3060.

a) Mit Gebrauchtpreise kenne ich mich nicht wirklich aus, bei eBay zu schauen ist da schon ein guter Anhaltspunkt. Vorausgesetzt man verkauft dann auch über eBay, denn was ich mitbekommen habe, ist, das bei eBay teils absurd hohe Preise für Gebrauchtware bezahlt wird.

b) Aktiviere im Grafiktreiber mal Dynamic Super Resolution (DSR) - lass dich nicht vom Namen verwirren, Dynamisch ist daran gar nichts.
Mit DSR kann man höhere Auflösungen rendern lassen, als der angeschlossene Bildschirm nativ Unterstützt. Die Grafikkarte skaliert das Bild dann auch auf die native Auflösung herunter - das nennt sich Downsampling, ist quasi das Gegenteil von DLSS (Upsampling), nur ohne DL (Deep Learning, oder PR-Sprech: "KI").
Iirc muss man bei NVIDIA anschließend noch einrichten welche Auflösungen man haben möchte. Dies könnte helfen, nach einer Erläuterung, findet man weiter unten Bilder die zeigen wo sich die nötigen Optionen verstecken. Wenn noch Fragen dazu über sind, frag nur.
[EDIT] Für Mitleser: Bei AMD heißt die gleiche Funktion Virtual Super Resolution (VSR). Nach Aktivierung im Treiber muss man nichts weiter machen, als die gewünscht Auflösung im Spiel - oder wahlweise auch auf dem Desktop - auszuwählen.
Für die vermutlich wenigen Intel-Arc-Nutzer: Mir ist nicht bekannt, das Intel eine solche Funktion bietet.[/EDIT]


Mit DSR kannst du schon mal ausprobieren ob diese oder jene Auflösung besser für dich geeignet ist.
Die Anforderung an die Grafikkarte ist geringfügig (<2%) höher, als an einem Monitor mit dieser nativen Auflösung.
Bedenke jedoch: Wenn du aktuell ein 24" Monitor hast, und der nächste 27" haben sollte, wird es mit DSR auf deinem jetzigen Bildschirm alles etwas kleiner wirken. So ähnlich wie als wenn der neue Monitor die gleiche Diagonale hätte wie dein jetziger.
Wenn die X und Y Achse der Auflösung mit DSR, keine gerade Vielfache der aktuellen Auflösung ist, leidet darunter leicht die Bildqualität - es wirkt etwas Verschwommen.
Bspw. Von FullHD zu WQHD sind es x1,33, von FullHD zu UHD sind es x2.

c) IPS sticht vor allem durch seine hohe Blickwinkelstabilität hervor, auch die Farbtreue ist hoch. Aber erreicht kein so hohen Kontrast bzw. so tiefen Schwarzwert wie VA.
Dann gäbe es noch TN, dieser ist vor allem schnell - niedrigste Reaktionszeiten - und günstig, auf Kosten der Blickwinkelstabilität und der Bildqualität (Farbqualität, Kontrast und Schwarzwert).
ABER! Diese typischen Eigenschaften verschwimmen bereits seit Jahren. Die Schwächen der jeweiligen Techniken gehen zurück, so das es die besten Modelle mit dem schlechteren Modellen der anderen Techniken aufnehmen kann. Bspw. heutige IPS-Modelle stoßen bei der Reaktionszeit in Bereiche vor, die selbst die ersten TN nicht erreichen konnten.
TN willst du jedoch eher nicht haben, wird zudem nur noch bei sehr billigen, oder stark eSport-Fokussierte Modellen eingesetzt. eSport-fokussiert heißt: FullHD und 360 Hz oder höher. Billig sind die dann auch nicht mehr, und Bildqualität ist auch nur Nebensächlich.
Für die meisten Nutzer, mit durchschnittlichen Anforderungen, bietet derzeit IPS (von besseren Modellen) das beste Allround-Paket. Keine großen Schwächen mehr, mit ausreichend hoher Bildqualität, und das schon zu einem recht günstigen Preis. Wer spezielle Anforderungen oder hohe Qualitätsansprüche hat, für den gibt es evtl. bessere alternativen - nicht immer, auch IPS kann sehr hohe Qualitätsansprüche und spezielle Anforderungen erfüllen, kommt darauf an was gesucht wird.

OLED und VA hatten wir ja schon.

Es gibt noch ein paar die vor allem Marketingbegriffe sind, welche aber effektiv nur Verbesserungen der bereits genannten Techniken sind. Ein Beispiel wäre QLED, was nichts mit OLED zutun hat. Q steht für Quantum Dot, was vor allem die Farbqualität verbessern soll. Eine Technologie von SAMSUNG.
LED-Monitore sind mit OLED auch nicht vergleichbar. Denn während OLED selbstleuchtend sind, bedeutet LED einfach nur das die Hintergrundbeleuchtung von LEDs übernommen wird - früher Kaltlichtkathode (CCFL) -, LED sind einfach Stromsparender als CCFL.
MiniLED gehören zu den LED-Monitore, jedoch werden kleinere LEDs in größerer Anzahl über die Rückseite verteilt, um eine bessere Ausleuchtung, Kontrast und Schwarzwerte zu erreichen. Bei der Hintergrundbeleuchtung wird unterschieden in Edge, Direct LED und Full Array.
Bei Edge wird, wie es der Name eigentlich schon verrät, das Leuchtmittel an den Seiten angebracht, und mittels Spiegel auf der gesamten Fläche verteilt. Daher ist die Ausleuchtung auch nicht gleichmäßig, und kann beim selben Modell stark schwanken, denn nur ein wenig mehr Druck an einer Stelle während der Produktion, beeinflusst die Position der Spiegel.
Bei Direct LED und Full Array werden die LEDs hinter dem eigentlichen Bildschirm angeordnet, der wesentliche Unterschied ist die Anzahl der LEDs. Mehr LEDs erlauben eine feinere Ansteuerung, und somit kann der Kontrast und Schwarzwert verbessert werden, denn die LEDs können nicht nur in der Helligkeit reguliert werden, sondern wenn Schwarz dargestellt werden soll, auch abgeschaltet werden. Mit Full Array kommt man also näher an OLED heran, die selbstleuchtend sind. Full Array ist aber teuer.

Daneben gibts noch Plasma - iirc nur bei TVs und Videowände. Die sind auch teuer und können einbrennen, haben iirc auch eine recht hohe Leistungsaufnahme.
Zuletzt noch ein paar Worte zu µLED (MikroLED). Man könnte nun evtl. meinen die gehören auch zu den LED- bzw. MiniLED-Modelle, aber nein, tun sie nicht. µLED ist wie OLED Selbstleuchtend. Die µLEDs sind so klein, das 3-4 davon in einem Bildpunkt untergebracht werden können.
Damit sind wir aber auch schon bei deren derzeitigem größten Nachteil: Sie sind noch zu groß - und teuer in der Fertigung. Wenn du nicht in einem Kinosaal sitzt - und ich meine keine kleinen Heimkinos -, und selbst (neue) Luxuswagen aus der Portokasse zahlst, dann sind diese noch keine Option. Falls dir jemand ein µLED-Bildschirm für ein paar hundert Euro anbietet, dann ist das bestenfalls eine PR-Lüge (und eigentlich MiniLED), schlimmstenfalls will dich jemand über den Tisch ziehen und Schrott verkaufen.
µLED gehört die Zukunft, da sie die technischen Schwächen von OLED - nebenbei: O steht für Organisch - nicht haben, aber das wird voraussichtlich (persönliche Einschätzung) nicht vor 2030 der Fall sein, das diese in Geräte für Otto-Normal vorzufinden sind. Auch wenn die Preise afaik bereits von Fünf- auf vierstellig gefallen sind, allerdings je Paneel, und selbst für PC-Monitor-übliche Größen braucht man zumindest 2 davon. Nur will man bei denen nicht so nah davor sitzen, wie es bei PCs üblich ist. Diese Technik braucht noch Zeit.


Zum PS: Das ist die, von mir schon angesprochene Blickwinkelstabilität.
Ich kann nur raten, das du dir Testberichte zu jenen Modelle ansiehst, anhörst und liest, die dich interessieren. Bei jedem halbwegs vernünftigen Test wird auch auf die Blickwinkelstabilität eingegangen.
Die beste deutschsprachige Quelle für Bildschirm-Tests (Monitor und TVs), ist Prad.de.
Bild
- Medieval 2 TW - Gildenführer
- Meine PC-Konfigurationen für Gamer (Kaufberatung)
- F*CK TPM!

Benutzeravatar
Fridericus Secundus
Primus Pilus
Primus Pilus
Beiträge: 2361
Registriert: 10. Dezember 2010 23:58
Wohnort: Herzogtum Bayern-München
:
Teilnahme an einem Contest Modder Spender

Re: Monitor Kaufberatung

Beitragvon Fridericus Secundus » 16. Februar 2024 19:22

Wow. Vielen Dank für diese krasse Informationsdichte!
Nach der Lektüre v.a. der Infos zu UHD ist die Entscheidung für mich jetzt gegen UHD und eine neue Graka gefallen. Ich werde heute Abend mal DSR ausprobieren und sehen, was mir da so gefällt. Jedenfalls scheint sich UHD für mein Anspruchs-/Budgetverhältnis aktuell nicht zu lohnen - mit WQHD fahre ich vermutlich besser. Die Graka kann ich dann immernoch gegen ein Modell der oberen Mittelklasse oder unteren Oberklasse austauschen, wenn ich mit der 3060 an spürbare Grenzen stoße. Und für die Arbeit bin ich mit WQHDwohl gut dabei.

Bzgl. Blickwinkel hat der 32'' Samsung Odyssey g55c, den ich aktuell im Auge habe, einen Wert von 178°, was m.E. total ausreichend sein sollte.
Ich bin Historiker. Da geht man immer mit ganz niedrigen Erwartungen an die Menschen ran.
-- Don Alphonso

Benutzeravatar
nordstern
Aedilis
Aedilis
Beiträge: 12634
Registriert: 6. Dezember 2010 01:28
:
Teilnahme an einem Contest

Re: Monitor Kaufberatung

Beitragvon nordstern » 22. Februar 2024 12:29

Das ist jetzt etwas offtopic, aber denke es passt noch rein.

Ich habe zum Jahreswechseln meinen Arbeitsplatz wechseln müssen und damit auch den PC. Damit bin ich garnicht zufrieden, aber ich hab n eigenes Büro nun.

Seitdem habe ich aber massive Probleme mit trockenen Augen. Lt. Augenarzt wegen zuviel Bildschirmzeit. Nun muss man dazu aber sagen, das meine Bildschirmzeit als ich nicht gearbeitet habe ähnlich hoch war. Und an meinem alten Arbeitsplatz gab es die Probleme so nicht. Ich gebe also den neuen Monitoren die Schuld dafür. Ist das technisch überhaupt so? Beide sind relativ alte Monitore. Einer vermutlich so einer der ersten Flachbildmonitore die es gab.

Kann das die Ursache sein und habe ich Anspruch auf einen besseren Monitor? Ein anderer PC bei dem die Lüftung nicht permanent pfeift wurde mir bereits verweigert.


Zum Bildschirm: Ich bin ein Fan von IPS-Panelen. Bei den TN ist die Blickwinkelabhängigkeit teilweise echt extrem (gewesen?). Also da reichten ein paar Grad schon aus um Farben zu verfälschen. Also normale Blickwinkeländerungen beim vor dem Bildschirm sitzen. Zudem fand ich das Bild der IPS-Panele deutlich besser. Kontrastarm fand ich sie nicht. Das denke ich sind vermutlich nur im Labor messbare Unterschiede. Real, bei gewegtem Bild oder so würde man das nie bemerken mit dem Schwarzbild.

UHD hat leider das Problem auch ohne infinitive Cache, das es extrem viel Power braucht. Die Auflösung skaliert mit der Anzahl der zu berechnenden Pixel quadratisch. Eine Eröhung der Auflösung von 720p auf 1440p (FullHD zu HD) ist eine ver4fachung der Pixel und damit muss die Grafikkarte auch 4mal mehr berechnen. Wenn man auf UHD hoch geht ist es nochmal das doppelte (50% mehr Pixel).

beispiel:
720p: 1280 x 720 = ca. 0,9 Mio
1080p: 1920x1080 = ca. 2,1 Mio
1440p: 2560 x 1440 = ca. 3,7 Mio
2160p: 3840 x 2160 = ca. 8,3 Mio

Daran kannst du immer festmachen wieviel mehr Power eine Grafikkarte in etwa mehr braucht um das zu können. Es gibt zwar noch die technische Seite. In diesem Falle würde sie aber das Bild nur noch weiter gefährden. Ich würde stand jetzt einen Monitor nie über 1440p gehen, sofern man nicht vor hat alle ca. 2 Jahre eine neue Highend-Grafikkarte zu kaufen. Denn ansonsten kann man zwar auf UHD, etc zocken, aber die Qualität und performance ist schlechter, so das man idR eh auf 1440p runter skalieren wird. Und ich weis nicht wie das technisch funktioniert. Aber ein Monitor hat Pixel. Und wenn ich jetzt sagen wir ohne DSR, CSR, etc runter skaliere, dann wird er unscharf. Da dann plötzlich 3,7Mio Pixel durch 8,3Mio dargestellt werden müssen. Und das geht nicht auf. So das mehrere Pixel das selbe zeigen müssen was zu unschärfe führt und zeitgleich verstärkt wird, weil es nicht aufgeht und dadurch Kanten sich verstärken. Sehen tut man das nicht, aber es erhöht die wahrgenommene Unschärfe weiter. Da kann man dann gleich das Geld sparen und auf 1440p gehen.

Aber auch wenn 1440p aktuell immer mehr der Standard wird für Gamer, spricht theoretisch auch noch nichts gegen 1080p. Habe ich bis vor 3 Jahren auch so noch gezockt. Und würde ich auch noch, wenn mein damaliger Monitor nicht kaputt gegangen wäre (einfach alt gewesen).
Ich bin Legastheniker. Wer also Rechtschreibfehler oder unklare Formulierungen findet, soll bitte versuchen die Grundaussage zu verstehen oder darf sie gerne behalten :)

Danke für euer Verständnis.

Benutzeravatar
Homerclon
Moderator
Moderator
Beiträge: 11457
Registriert: 2. Dezember 2010 19:33
Wohnort: Erde, Sonnensystem, Milchstraße
:
User des Monats Teilnahme an einem Contest Team-SZ Pfeiler der Community Kleinspender Gewinner Userwahl

Re: Monitor Kaufberatung

Beitragvon Homerclon » 22. Februar 2024 19:42

Seit den ersten LCDs, hat sich die Technik der Hintergrundbeleuchtung geändert. Früher waren es Kaltlichtkathoden, seit einigen Jahren ist es LED.
Die Blickwinkelstabilität war bei TN ein Problem, ja. Aber nicht bei jedem Modell war es gleich stark ausgeprägt. Und eine so schlechte Stabilität wie du sie beschreibst, sollte man bei heutigen TN-Bildschirmen eigentlich nicht mehr vorfinden. Dennoch gibts nur noch zwei wirkliche Gründe zu TN zu greifen: Entweder man will sehr hohe Bildwiederholfrequenzen (360 Hz und mehr), oder aber der Preis ist das wichtigste Kriterium - dann darf man aber keine Ansprüche haben, die über "funktioniert" hinaus geht.

720p ist nicht FullHD, sondern HD bzw. um Missverständnisse zu vermeiden eher als HD Ready bezeichnet, und 1440p ist auch nicht FullHD oder HD, sondern WQHD - von vielen auch fälschlich mit QHD abgekürzt - selbst von PR-Heinis bei Monitor-Hersteller.
720p wird von der Nintendo Switch genutzt, das Steam Deck hat eine leicht höhere Auflösung, nämlich 1280x800 (16:10). Am PC oder einem Laptop direkt, hat 720p aber eigentlich keine Relevanz mehr.

Ich bin mir sicher, das 3,7 x2 weniger ist als 8,3. Ich komme jedenfalls nur auf 7,4 (oder ohne Rundung gerechnet: 7,37), demnach wird es mit UHD mehr als verdoppelt (oder genau: WQHD +125% = UHD).
Wenn wir schon dabei sind: UHD ist exakt 4x so hoch wie FullHD (1920x1080), bzw. +300%. WQHD ggü. FullHD sind +77,777...8%.

In der Regel fallen die FPS aber nicht ganz so stark, sofern nicht noch etwas weiteres limitiert, wie Grafikspeicher oder Cache. Denn die GPUs können mit steigender Auflösung besser ausgelastet werden, sie arbeiten also effizienter. Falls bei niedriger Auflösung die CPU limitiert hat, könnte mit höherer Auflösung ebenfalls die FPS weniger abfallen als erwartet - im Extremfall bleiben die FPS sogar quasi unverändert.

DSR wird für das Gegenteil genutzt, nämlich höhere Auflösungen zu nutzen, als der Bildschirm darstellen kann.
Was meinst du mit CSR? Sagt mir nichts, jedenfalls nicht in diesem Zusammenhang.

Man würde heutzutage DLSS, FSR oder XeSS nutzen, um trotz reduzierter Auflösung nur ein möglichst geringen Verlust bei der Bildqualität zu haben. Dabei wird das Bild erst in geringerer Auflösung gerendert, und dann inkl. einem Rekonstruktionsverfahren auf die gewünschte höhere Zielauflösung (idR die native des Monitors) skalieren. Die Rekonstruktion kostet etwas Rechenleistung, aber weit wenig als direkt in der Zielauflösung zu rendern. Dabei gilt: Je höher die Ausgangsauflösung, desto besser ist die Bildqualität der Zielauflösung.
Das ist in jedem Fall die bessere Wahl, anstatt auf eine Rekonstruktion zu verzichten oder gar dem Bildschirm die Skalierung zu überlassen.
Dummerweise berücksichtigen die Spiele-Entwickler bereits die Nutzung von DLSS / FSR / XeSS, so das man die maximalen Details in Grafik-Blockbuster ohne DLSS / FSR gar nicht flüssig zu sehen bekommt - jedenfalls nicht mit Hardware die zum Release der Spiele gerade verfügbar sind. Insbesondere wenn Raytracing aktiviert wird, geht das meist so stark auf die Hardware, das man ohne Upsampler wie DLSS / FSR / XeSS praktisch keine brauchbare FPS-Rate erhält.

Wer nur spielt, für den reicht FullHD, wobei die Bildqualität auch beim spielen von höherer Auflösung profitiert. Aber wer mit dem PC auch arbeitet, kann - je nachdem was gemacht wird - von zusätzlicher Arbeitsfläche - sprich, höhere Auflösung - merklich profitieren.
Eine Möglichkeit wäre, das man zwei Monitore nutzt. Ein mit UHD zum arbeiten, das kann dann auch ein günstigerer sein, der sich bestenfalls eingeschränkt zum spielen eignet, und daneben ein mit WQHD oder FullHD zum spielen - den zweiten kann man beim arbeiten auch zur zusätzlichen Erweiterung der Arbeitsfläche nutzen. Setzt natürlich voraus, das man ausreichend Platz hat.
Bild
- Medieval 2 TW - Gildenführer
- Meine PC-Konfigurationen für Gamer (Kaufberatung)
- F*CK TPM!