Nainstalovat Steam
přihlásit se
|
jazyk
简体中文 (Zjednodušená čínština)
繁體中文 (Tradiční čínština)
日本語 (Japonština)
한국어 (Korejština)
ไทย (Thajština)
български (Bulharština)
Dansk (Dánština)
Deutsch (Němčina)
English (Angličtina)
Español-España (Evropská španělština)
Español-Latinoamérica (Latin. španělština)
Ελληνικά (Řečtina)
Français (Francouzština)
Italiano (Italština)
Bahasa Indonesia (Indonéština)
Magyar (Maďarština)
Nederlands (Nizozemština)
Norsk (Norština)
Polski (Polština)
Português (Evropská portugalština)
Português-Brasil (Brazilská portugalština)
Română (Rumunština)
Русский (Ruština)
Suomi (Finština)
Svenska (Švédština)
Türkçe (Turečtina)
Tiếng Việt (Vietnamština)
Українська (Ukrajinština)
Nahlásit problém s překladem
Fehler gemacht, insofern als dass die 970er keine Karte ist, die ich mir *jetzt* noch holen würde oder zu deren Kauf ich irgendjemandem raten würde. Wer sich die vor einiger Zeit oder damals bei Release gekauft hat, okay. Aber von der 3,5GB-Kiste mal abgesehen, die sie damals schon in den Augen vieler herabgesetzt hat, ist das keine Karte mehr, die man sich *jetzt* noch holen sollte, so wie es der OP getan hat.
Für das gleiche oder sogar noch weniger Geld kriegst du jetzt schon 'ne 480er von AMD mit 8GB, bzw. für ein bißchen Aufpreis bekommst du schon 'ne 1060er oder 'ne 1070er, die fast das doppelte an Leistung bringen und weitaus zukunftsträchtiger sind, als die 2 Jahre alte 970er. Darum sind viele Leute hier der Ansicht, daß es eine keine gute Wahl ist, sich *jetzt* noch eine 970er zu kaufen. Leuchtet das ein?
Natürlich kann jeder mit seinem Geld machen, was er will. Aber ich finde, das war ein Fehlkauf und sie haben ihm da 'ne *vergleichsweise* schlechte Karte angedreht, vermutlich weil sie die noch im Lager hatten und schnell los werden wollten.
Btw: Von dem FreeSync hast du nix mit einer Nvidia, deswegen hat Nbdy gefragt.
das halte ich für selbstverständlich bei einem Monitor
Ich persönlich hab mir vor einigen Monaten den iiyma ProLite XB2783HSU geholt (27", 1080p, 60Hz). Der ist nahezu perfekt ausgeleuchtet und ich persönlich hab mich mittlerweile in das VA-Panel verliebt. An die Schwarzdarstellung kommt einfach nichts ran. Schwarz sieht wirklich schwarz aus. Bei TN kriegt man nur grau geliefert. Selbst IPS kommt nicht an das Schwarz ran. Außerdem hat es dieses widerliche Glitzern, auf das ich gar nicht klarkomme.
1440p wäre ein harter Aufpreis von mehr als 100€ gewesen und 144Hz bei 27", der kein TN ist, da wirds dann auch schon teurer. Das lag alles nicht mehr wirklich in meinem Preisrahmen, den ich mir gesetzt hatte.
Zudem war mir bewusst, daß ich noch einige Zeit auf meiner 770er sitze und sowieso keine neuen Spiele auf 1440p betreiben kann, geschweigedenn dann auch noch zusätzlich mehr als 60fps rausbekomme. Die nativen 1440p hätte ich schon gerne gehabt, auch im Hinblick auf die Zukunft und eine neue GraKa, aber 144Hz wären für mich persönlich sinnbefreit gewesen.
Selbst mit den neuen Karten kriegt man in den neuen Spielen auf Ultra-Auflösung in 1440p nicht mehr als maximal 70-80fps raus. Beispielsweise erzielt selbst eine Titan X bei Witcher 3 in nur 1080p auf höchsten Einstellungen gerade mal 60fps. Von daher sind solche 144Hz-Monitore meiner Meinung nach nur interessant für Leute, die ältere Spiele wie z.B. CS auf kompetetiver Ebene zocken und noch das aller-, wirklich das allerallerletzte Quentchen rausquetschen wollen, um irgendwie einen Vorteil zu haben.
Ansonsten kommt man beim normalen Zocken in modernen, hungrigen Games doch sowieso nur in diese hohen FPS-Bereiche, wenn man entweder bei den Grafikeinstellungen hart runterschraubt oder aber gleich mehrere Biest-GraKas hat. Ersteres wollen die meisten Zocker für ihr Spielerlebnis nicht in Kauf nehmen und letzteres trifft auch nur auf recht wenige Leute zu. Ich kauf mir doch z.B. keine 1080er, um dann in Witcher 3 oder Deus Ex die Auflösung und Grafikeinstellungen runterzuschrauben, bloß um 120fps zu haben. Da geb ich mich lieber mit 60fps zufrieden und genieß die Augenweide auf Ultra in höherer Auflösung. Und die Kohle für ein Multi-GPU-Setup hab ich auch nicht.
Ich weiß, daß jeder, der mal in den Genuss von mehr als 60Hz gekommen ist, behauptet, nie wieder zurück zu wollen. Aber Fakt ist nunmal auch, daß man in vielen modernen Games und den Games der näheren Zukunft gar nicht in diese FPS-Bereiche kommt/kommen wird. Selbst nicht mit den neuen GraKa-Generationen.
Für Normalsterbliche sind 60Hz-Monitore von daher in der Regel völlig ausreichend.
Aber wie du schon sagtest, beim Monitor muss letztlich jeder selbst seine Prioritäten setzen.
Neenee... keine Sorge... mit 4k hat das nichts zu tun. Das ist Quatsch. Die meisten Benchmark-Tests sind in 99% der Fälle sogar nur mit 1080p, maximal 1440p, weil das das ist, was die breite Masse hat.
Das Beispiel von Witcher 3 z.B., das ich gab: Ohne (!) Hairworks, auf 1080p, mit maximalen Details kriegst du selbst mit einer Titan X nur ~60fps im Schnitt. In 1440p sind's schon nur noch 47fps und bei 4k bist du sogar nur bei 30fps. In dem Fall kannst du mit einem 144Hz-Monitor überhaupt nichts anfangen.
https://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/#diagramm-grafikkarten-benchmarks-in-3840-2160
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/
(Das mal als zwei Beispieltests, die ich auf die schnelle gefunden habe)
Nächstes Beispiel: GTAV. 1080p, maximale Details. Titan X, 50-60fps (je nachdem ob FXAA oder zusätzlich 4xMSAA).
https://www.computerbase.de/2015-04/gta-v-grafikkarten-und-prozessor-benchmarks/2/
http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-Spiel-4795/Tests/GTA-5-PC-Test-Benchmark-1156215/
The Division, maximale Details, 1080p, High-End GraKa 980ti - 70fps.
https://www.computerbase.de/2016-03/the-division-benchmark/2/
Rise of the Tomb Raider, 1080p, keine Tesselation (wahrscheinlich auch ohne Hairworks) mit 980ti - je nach Szene 70-90fps.
https://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/
Natürlich hängt es auch vom Spiel ab. Fallout 4 oder das neue Doom z.B. sind jetzt nicht sonderlich hungrig, aber im Vergleich auch nicht die hübschesten Games. Da kriegst du mit 'ner Spitzenkarte auf maximalen Details bei 1080p ~100fps (Fallout 4, ist halt nicht die neueste Engine und open-world) oder sogar 170fps (Doom).
https://www.computerbase.de/2015-11/fallout-4-benchmarks/
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Benchmark-Test-1195242/
Und dann gibt es aber auch noch etliche Games, wie das neue MGS z.B., wo die fps sowieso auf 60 limitiert sind, egal was für ein Monster von GraKa du hast.
https://www.computerbase.de/2015-09/metal-gear-solid-phantom-pain-benchmark-test/
Generell aber gilt, wie in den ersten Beispielen zu sehen (ich könnte noch mehr liefern, wenn du willst), wenn du bei modernen, wirklich grafikhungrigen Spielen (Fallout 4 und Doom zähl ich jetzt nicht dazu - sehen zwar nicht scheiße aus, aber spielen auch nicht in der grafischen Oberliga) weit mehr als 60fps willst (um wirklich was von einem 144Hz-Monitor zu haben), muss man entweder bei den Grafikeinstellungen runterschrauben oder aber ein Multi-GPU-Setup haben - selbst schon nur bei FHD oder 1440p. Von 4K brauchen wir gar nicht erst anfangen. Da krückst du definitiv oftmals sogar weeeit unter 60fps rum.
Und das wird sich auch in Zukunft nicht ändern. Die neueren Games werden immer versuchen aus den aktuellen GraKa-Generationen soviel wie möglich rauszuholen. Also auch bei Games wie Battlefield 1, dem neuen Mirror's Edge oder Deus Ex, kannst du davon ausgehen, daß du selbst mit Hi-End-Karten à la 980ti, 1070er, 1080er, Titan X etc. bei maximalen Details auf 1080p nicht weit mehr als 60fps rauskitzeln wirst. In den meisten Fällen bewegt man sich bestenfalls (!) zwischen 60-100fps. 120+ kriegst du bei modernen, hungrigen Games einfach nicht raus. Klar hat man von 80fps nichts, wenn man nur einen 60Hz-Monitor hat, aber ob es den Aufpreis zu einem Monitor mit mehr Hertz rechtfertigt, nur um in den Genuss von ein oder zwei Dutzend Frames mehr zu kommen... ich weiß nicht. Mir persönlich ist es das nicht wert gewesen und ich bin mit 60Hz/fps seit 20 Jahren völlig zufrieden. Da wären mir 1440p bei 60fps mehr wert, als 1080p bei 80fps. Eine höhere native Auflösung wäre mir wichtiger als die Hz.
Aber ich stimm zu: Das muss jeder für sich selbst entscheiden.
G-Sync hingegen ist ein geschlossenes System, welches spezielle Hardware auf Seiten des Displays benötigt (kostet extra). Weder AMD noch Intel dürften oder könnten das einfach so für ihre Hardware implementieren.
Ist eigentlich ziemlich einfach zu sagen, welches der beiden Systeme langfristig wieder verschwinden wird.
@rowdycat: "Daumenkino" oder "niedrige Framerate" würde ich persönlich stabile 60fps jetzt nicht nennen. Das ist Schwarzmalerei.
Ich war so frei und hab mir mal gerade deine Games angesehen. Ich weiß ja nicht, was du noch außerhalb von Steam so hast, aber das was in deiner Steam Library ist, ist ja auch bei weitem (!) nichts, was deiner 970er mehr abverlangen würde. Selbstverständlich hast du bei mehr als 5 Jahre alten Spielen hohe FPS.
Versuch mal mehr als 60fps bei FHD und hohen oder sogar maximalen Grafikeinstellungen aus Spielen wie Witcher 3, Rise of the Tomb Raider, GTAV etc. pp. rauszuholen oder gar aus den Games die noch kommen in nächster Zeit. Bei solchen Games ist dann Essig.
Natürlich ist es alles eine Frage, was man überhaupt für Ansprüche hat und was man überhaupt spielt.