nordstern hat geschrieben:ähm... neee. oben ist das NT und das DVD-Laufwerk. Darunter stand die Käfige. Ich muss schauen ob sich da einer entfernen ließe ohne das die Anzahl an Festplatten probleme macht. Ich hab gerade nachgeschaut. Ich habe den unteren Käfig garnicht verbaut sondern nur den mittleren. Mal schauen ob ich den noch finde^^.
Dann hast du kein R5 von Fractal Design, dort kann das Netzteil nämlich nur Unten verbaut werden.
Heißt das, trotz der Benchmarktests in denen die 6900XT auf Augenhöhe zur 3090 steht und etwa 7% über der 6800XT, sie garnicht mehr Leistung bringt als die 6800XT?
Das werden Custom-Modelle sein, bei denen die Hersteller eine höhere TDP eingestellt haben. 7% Mehrleistung ggü. der 6800 XT ist nun auch nicht die Welt, so das ich dafür kein nennenswerten Aufpreis bezahlen würde.
Ob Radeon oder GeForce vorne liegt, hängt vom Spiel ab. In der Regel ist jedoch die 3090 vorne.
Wieso gibt es die dann überhaupt?
Das hab ich mich schon bei der Ankündigung der 6900 XT durch AMD gefragt. Sie hätten der 6900 XT eine höhere TDP geben müssen, und wenn es nur 20W gewesen wären.
Und lohnt es sich dann überhaupt auf die 6900XT umzuschwenken bei unklarer Lautstärke wg fehlender Tests?
Bei gleicher TDP und gleichem Kühler, sollte die gleiche Lautstärke und Temperatur erreicht werden, es sei denn der Hersteller hat eine andere Lüfterkurve programmiert.
Und lohnt sich dann der Mehrpreis von 80EUR + 50EUR für n besseres NT überhaupt? Ich bin btw. auf 1000W gegangen. Die 750 W reichen nicht mehr (gibt mir der Planer garnicht zur Auswahl bzw zeigt die 6900 garnicht an). Empfohlen wird 860W... Crucial hat aber nur 850W und 1000W. Für eventuelle Änderungen, etc dachte ich dann an 1000W.
Welcher Planer? Die der Händler würde ich gar nicht erst nutzen, die enthalten zum einen für gewöhnlich nicht alle Produkte die sie im Sortiment haben, und zum anderen gehen die lieber auf Nummer sicher und rechnen einen viel größeren Puffer ein als nötig. Bzw. halten sie sich an die Angaben der Hersteller, die aber auch einen großen Puffer einrechnen müssen. Denn wenn jemand ein China-Böller als NT verbaut, bei dem zwar 800W drauf steht effektiv aber nur 300W geliefert werden können ohne das einem das Teil um die Ohren fliegt, dann schreiben die GraKa-Hersteller als Empfehlung lieber 1000W hin. Wenn der China-Böller hochgeht, und wahrscheinlich noch die teure GraKa und anderes mitnimmt, denken viele womöglich sie sollten den GraKa-Hersteller verklagen, anstatt die Betrüger die das NT fabriziert / hochgelabelt haben.
Ich weis das, aber die Posts waren zeitlich getrennt und ich wollte nicht, dass die neue Info unter geht. Daher poste ich neu, wenn der Ursprungsbeitrag älter als 1h ist und markiere das mit edit um zu zeigen das gehört eigentlich zusammen. Dieser Post wurde 3mal editiert z.b.
Ist doch auch so erkennbar das die Beiträge zusammengehören, kannst dir das EDIT in einem neuen Beitrag daher sparen.
Wg RT:
Wie wird sich das entwickeln? Ich habe das gesehen und war schockiert. Es wird argumentiert wg realistischer und so. Aber faktisch verschlechtert es die Grafik. Sie wird verschwommener, unschärfer... verwaschener. Ob realistisch oder nicht. Ich habe lieber ein scharfes, schönes Bild als ein verwaschenes realistisches. Wird sich das noch ändern? Deswegen sind die AMD vermutlich auch so billig. Weil sie RT wesentlich schlechter können.
Verschwommener, unschärfer? Was hast du dir denn da angesehen? Evtl. ein Bild bei dem zugleich DLSS 1.0 bzw. 2.0 mit geringer Qualitätsstufe oder FSR aktiv war?
Aktuell wird Raytracing nur für (Globale) Beleuchtung, Reflexionen und Schatten verwendet - aber nur selten alles drei im selben Spiel.
Aufgrund der hohen Leistungskosten, wird gerade bei Reflexionen die Auflösung deutlich reduziert.
Raytracing erfordert viel Leistung, und alles was es aktuell gibt ist nur ein Kompromiss. Der erste Kompromiss ist, das ein Hybrid-Modus genutzt wird. Ca. 95% des Bildes wird durch klassisches Rasterizing erstellt. Ein paar wenige Effekte (siehe vorherigen Absatz) werden in verringerter Auflösung und begrenzt per Raytracing berechnet.
Mit Begrenzt meine ich: In der Realität wird ein Lichtstrahl solange Reflektiert bis er auf etwas trifft das auch die letzte Energie absorbiert. In einem Spiegelkabinett unvorstellbar oft. Das würden aktuelle Grafikkarten niemals in Echtzeit berechnen können - jedenfalls nicht wenn man mehr als 1fps haben will. Daher wird die Anzahl der Sprünge begrenzt.
Für jeden Pixel müsste auch ein Lichtstrahl verfolgt werden, das ist auch viel zu aufwändig. Daher wird die Anzahl deutlich reduziert, und das Ergebnis anschließend mit einem "Denoiser" nachbearbeitet. Ansonsten hätte man ein Bild das man mit Filmkörnung Vergleich kann - je nachdem wie stark die Auflösung abweicht, wäre die Filmkörnung mehr oder weniger extrem; aber auf jeden Fall störend.
Anders als 3D, wird Raytracing nicht wieder verschwinden. Mit steigender Leistung werden die Effekte in höherer Qualität berechnet und/oder weitere Effekte hinzugefügt. Gerade auch weil die Konsolen Raytracing unterstützen, wird man das nun immer häufiger sehen. Sobald keine neuen Spiele mehr für PS4 und XBO erscheinen, und auch die Verbreitung von Karten ohne Raytracing-Unterstützung verschwindend gering ist, wird Raytracing wohl zu einem Standardfeature bei dem man evtl. nur noch die Qualitätsstufe einstellen, aber nicht mehr zwischen Ein und Aus wählen kann.
Das Ziel ist es jedenfalls, das Bild komplett per Raytracing zu rendern, aber bis dahin vergeht noch viel Zeit - dieses Jahrzehnt erwarte ich das nicht mehr, auch das nächste dürfte noch zu früh sein.