Προς το περιεχόμενο

NVIDIA RTX 4000 Series(Ada Lovelace)


Psycho_Warhead

Προτεινόμενες αναρτήσεις

Δημοσ. (επεξεργασμένο)
33 λεπτά πριν, BlurayMoviesGreece είπε

Αν εκαναν καλα και τα ελεγαν τοτε δεν θα επρεπε να τους τσουζει τωρα οταν τους τα τριβουν.
Δεν γινεται να εισαι κωλοτουμπας οποτε σε συμφερει.
Αν σε νοιαζουν τα watt και κοκορευεσαι για τα 142w του Ryzen 5000 εναντι του Cinebench R23 240w του 12900κ(γιατι μονο εκει εφτανε τοσο σε 100% full load)
Tοτε θα επρεπε να σε νοιαζει και για 240w του Ryzen 7000 που ενω επεσε σε Nm διπλαστικαν τα watt μηπως και φτασει τον 13900k που ειναι 3-4 γενιες Nm μεγαλυτερος.
Αν ηταν στα ιδια Nm η αν συγκρινουμε σε ιδια Nm του αντιστοιχους παλαιοτερους Ryzen οι διαφορες στις επιδοσεις ειναι χαοτικες.

Δεν είναι το ίδιο.

Αρχικά μην εμπλέκεις CPUs. Δε μιλάμε για CPUs και εκεί η κουβέντα είναι πολύ διαφορετική.

Στις GPUs πάμε. Τότε, Ampere και RDNA2, η διαφορά ήταν χαοτική στο efficiency και στα attainable clock speeds του κάθε process. Γιατί νομίζεις ότι οι RDNA2 παίζουν στα ~2,4-2,5GHz ενώ οι Ampere στα ~2GHz; (Για να μην πω 2.7Ghz vs 2.1)

Να δώσω 100 MHz ότι είναι(;) λόγω διαφορετικής αρχιτεκτονικής αλλά τα υπόλοιπα 400MHz είναι η διαφορά του καλού 7nm TSMC vs σάπιου 8nm Samsung LSI. Μιλάμε για τόσο μεγάλες διαφορές.

Γιατί η Nvidia επέλεξε αυτό το process; Δεν μπορούσε να κάνει allocate ΚΑΘΟΛΟΥ από την 7nm παραγωγή της TSMC;

Έστω για τα GA102 dies μόνο;

Όχι βέβαια. Επιλογή της ήταν αφού είχε μάθει στην καθόλου ανταγωνιστική AMD των RX480 και 5700XT.

Ευκαιρία να αρμέξει τον κόσμο και να έχει τεράστιο profit margin επιλέγοντας το φτηνιάρικο 8nm Samsung LSI process. Αυτό είναι ξεφτίλα και αυτό πρέπει να κράζει ο κόσμος. Και καλά κάνει και το κάνει.

3080 έχω αλλά η ΞΕΦΤΙΛΑ δε γνωρίζει μάρκες. Είναι απλά ξεφτίλα.

Επεξ/σία από kkatzos
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Forspoken κ καλά γραφικά δεν πάνε μαζί.. Αδικαιολόγητα βαρύ.Γενικως, τα unoptimised games των 70 κ 80 € σε συνδυασμό με denuvo κτλπ, δεν είναι αυτό το "next gen" που περιμέναμε.. Iσως με την επόμενη γενιά κονσολών. 

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
22 λεπτά πριν, kkatzos είπε

Δεν είναι το ίδιο.

Αρχικά μην εμπλέκεις CPUs. Δε μιλάμε για CPUs και εκεί η κουβέντα είναι πολύ διαφορετική.

Στις GPUs πάμε. Τότε, Ampere και RDNA2, η διαφορά ήταν χαοτική στο efficiency και στα attainable clock speeds του κάθε process. Γιατί νομίζεις ότι οι RDNA2 παίζουν στα ~2,4-2,5GHz ενώ οι Ampere στα ~2GHz;

Να δώσω 100 MHz ότι είναι(;) λόγω διαφορετικής αρχιτεκτονικής αλλά τα υπόλοιπα 400MHz είναι η διαφορά του καλού 7nm TSMC vs σάπιου 8nm Samsung LSI. Μιλάμε για τόσο μεγάλες διαφορές.

Γιατί η Nvidia επέλεξε αυτό το process; Δεν μπορούσε να κάνει allocate ΚΑΘΟΛΟΥ από την 7nm παραγωγή της TSMC;

Έστω για τα GA102 dies μόνο;

Όχι βέβαια. Επιλογή της ήταν αφού είχε μάθει στην καθόλου ανταγωνιστική AMD των RX480 και 5700XT.

Ευκαιρία να αρμέξει τον κόσμο και να έχει τεράστιο profit margin επιλέγοντας το φτηνιάρικο 8nm Samsung LSI process. Αυτό είναι ξεφτίλα και αυτό πρέπει να κράζει ο κόσμος. Και καλά κάνει και το κάνει.

3080 έχω αλλά η ΞΕΦΤΙΛΑ δε γνωρίζει μάρκες. Είναι απλά ξεφτίλα.

Η συζητηση ειναι πανω στη καταναλωση, οσο η GPU ανεβαζει τη καταναλωση του συστηματος αλλο τοσο και το CPU ανεβαζει τη καταναλωση του συστηματος.
Οταν βγαινει καποιος και λεει εγω πηρα Ryzen 5900x γιατι ειναι 105w και δεν ηθελα να παρω 12700κ που ειναι 125w αλλαστο Cinebench R23 φτανει τα 150w γιατι η κιλοβατωρα εχει φτασει τοσο και το ρευμα μου ηρθε 600€ ουσιαστικα αναφερεται στεγνα στη καταναλωση του Hardware και οχι στο πυρηνα και την αρχιτεκτονικη του, αυτο ειναι αλλη συζητηση .
Ο ιδιος λοιπον αν σημερα αλλαξει τον 5900x και βαλει 7950x ή αν δεν τον κραξει για τους ιδιους λογους μας δουλευει κανονικα.
Στην ουσια το προβλημα δεν ηταν η καταναλωση απλα τον ενοχλουσε οτι οι 12th gen ηταν πιο γρηγοροι και στο gaming καταναλωναν λιγοτερα watt απλα το μονο που μπορουσε να τους "χρεωσει" ειναι οτι στο Cinebench R23 ηταν μερικα watt παραπανω απο τους 5000.
Το ιδιο και στις GPU λοιπον οταν η μια σε 4Κ Μax Settings RT θελει στο Gaming 250w και η αλλη σε Idle Dual Monitor θελει 200w και εκει θα επρεπε να τον ενδιαφερει η καταναλωση και ο λογαριασμος της ΔΕΗ...

14 λεπτά πριν, xartemporas είπε

Forspoken κ καλά γραφικά δεν πάνε μαζί.. Αδικαιολόγητα βαρύ.Γενικως, τα unoptimised games των 70 κ 80 € σε συνδυασμό με denuvo κτλπ, δεν είναι αυτό το "next gen" που περιμέναμε.. Iσως με την επόμενη γενιά κονσολών. 

Στις κονσολες ειναι ακομα χειροτερα τα πραγματα, στο Forspoken παιρνουν το 1080p Νative το κανουν upscale σε 1440p και μετα το 1440p το κανουν upscale σε 4Κ για να σου πει η Sοny και ο καθε ενας  οτι το PS5 παιζεις τα παντα 4Κ και δεν εχει τα θεματα του PC.
Δες εδω πχ τι λενε για το Returnal:

"Sony advertises this title by saying it's running at a dynamic 4K - a catch-all term it has used for all manner of upscaling solutions of varying levels of quality. At its heart, Returnal operates at a relatively low internal resolution, then uses a couple of techniques to boost the quality of the output. This starts with temporal reconstruction to 1440p, followed by a checkerboarding pass to deliver a 2160p output.

The end result is a presentation that looks better than the native 1080p pixel counts that tend to emerge from untreated geometry, but this can't really pass as a full-blooded 4K presentation, dynamic or otherwise - especially on certain textures with high specularity, such as wet ground and water surfaces, where you can sometimes see an obvious moire pattern. Image quality in general can sometimes look a little fuzzy or grainy in motion too, owing to the TAA upscaling and checkerboarding."

https://www.eurogamer.net/digitalfoundry-2021-returnal-absolute-housemarque

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 λεπτά πριν, BlurayMoviesGreece είπε

Η συζητηση ειναι πανω στη καταναλωση, οσο η GPU ανεβαζει τη καταναλωση του συστηματος αλλο τοσο και το CPU ανεβαζει τη καταναλωση του συστηματος.
Οταν βγαινει καποιος και λεει εγω πηρα Ryzen 5900x γιατι ειναι 105w και δεν ηθελα να παρω 12700κ που στο Cinebench R23 φτανει τα 150w γιατι η κιλοβατωρα εχει φτασει τοσο και το ρευμα μου ηρθε 600€ ουσιαστικα αναφερεται στεγνα στη καταναλωση του Hardware και οχι στο πυρηνα και την αρχιτεκτονικη του, αυτο ειναι αλλη συζητηση .
Ο ιδιος λοιπον αν σημερα αλλαξει τον 5900x και βαλει 7950x ή αν δεν τον κραξει για τους ιδιους λογους μας δουλευει κανονικα.
Στην ουσια το προβλημα δεν ηταν η καταναλωση απλα τον ενοχλουσε οτι οι 12th gen ηταν πιο γρηγοροι και στο gaming καταναλωναν λιγοτερα watt απλα το μονο που μπορουσε να τους "χρεωσει" ειναι οτι στο Cinebench R23 ηταν μερικα watt παραπανω απο τους 5000.
Το ιδιο και στις GPU λοιπον οταν η μια σε 4Κ Μax Settings RT θελει στο Gaming 250w και η αλλη σε Idle Dual Monitor θελει 200w και εκει θα επρεπε να τον ενδιαφερει η καταναλωση και ο λογαριασμος της ΔΕΗ...

Δε βλέπω να επικεντρώνεσαι στο θέμα. Δε μιλάμε για CPUs και δε μιλάμε μόνο για κατανάλωση.

Δεν είναι μόνο το efficiency.

Είναι κυρίως το γεγονός ότι αν η 3090 σου είχε κατασκευαστεί με 7nm TSMC, ως όφειλε ως κάρτα των $1500, θα δούλευε στα 2,5GHz καταναλώνοντας τα ίδια 350-400W. 15% απόδοση έχασες και έχασα για να τα 'κονομησει πιο χοντρά ο Πέτσινος.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
5 λεπτά πριν, kkatzos είπε

Δε βλέπω να επικεντρώνεσαι στο θέμα. Δε μιλάμε για CPUs και δε μιλάμε μόνο για κατανάλωση.

Δεν είναι μόνο το efficiency.

Είναι κυρίως το γεγονός ότι αν η 3090 σου είχε κατασκευαστεί με 7nm TSMC, ως όφειλε ως κάρτα των $1500, θα δούλευε στα 2,5GHz καταναλώνοντας τα ίδια 350-400W. 15% απόδοση έχασες και έχασα για να τα 'κονομησει πιο χοντρά ο Πέτσινος.

Μα το θεμα ηταν το Efficiency και η καταναλωση οπως και οι κλοουν που αλλα ελεγαν πριν 2 χρονια και αλλα τωρα.
Εκει αναφερθηκα, εκει απαντησες, εκει εκανες quote,για αυτο μιλησα για cpu και τωρα θυμηθηκες να πας τη κουβεντα στη TSMC τη Samsung τα 7nm και την ηθικη του Πετσινου.

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

29 λεπτά πριν, BlurayMoviesGreece είπε

Μα το θεμα ηταν το Efficiency και η καταναλωση οπως και οι κλοουν που αλλα ελεγαν πριν 2 χρονια και αλλα τωρα.
Εκει αναφερθηκα, εκει απαντησες, εκει εκανες quote,για αυτο μιλησα για cpu και τωρα θυμηθηκες να πας τη κουβεντα στη TSMC τη Samsung τα 7nm και την ηθικη του Πετσινου.

Δεν το θυμηθηκα τώρα. Το θυμάμαι συνεχως κάνα 1,5 χρόνο τώρα. Αν ψαξεις τα ποστ μου πριν από 1,5 χρόνο θα δεις.

Απαντησα για το αν ειχε βάση η κριτική στην προηγούμενη γένια GPU και αν εχει στην παρούσα γενιά.

Στην προηγούμενη γενια ειχε βάση και επιχειρηματολόγησα υπέρ αυτού.

Τώρα η διαφορά στο efficiency ειναι λόγω μεγαλύτερου τσιπ/διαύλου και οχι λόγω ξεφτίλας επιλογών.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
46 λεπτά πριν, kkatzos είπε

Δεν το θυμηθηκα τώρα. Το θυμάμαι συνεχως κάνα 1,5 χρόνο τώρα. Αν ψαξεις τα ποστ μου πριν από 1,5 χρόνο θα δεις.

Απαντησα για το αν ειχε βάση η κριτική στην προηγούμενη γένια GPU και αν εχει στην παρούσα γενιά.

Στην προηγούμενη γενια ειχε βάση και επιχειρηματολόγησα υπέρ αυτού.

Τώρα η διαφορά στο efficiency ειναι λόγω μεγαλύτερου τσιπ/διαύλου και οχι λόγω ξεφτίλας επιλογών.

Ok το θυμασαι συνεχως κανα 1,5 χρονο, τι σχεση εχει με τη καταναλωση και τα θεατρα της ΔΕΗ που αναφερθηκα;
Aυτο που αναφερεις ειναι μια αλλη συζητηση που απλα αφορα τα ιδια προιοντα για διαφορετικους λογους.
Αλλο θεμα εθιξα εγω και σε αλλο με πηγες αντι να απαντησεις.

Και τωρα εχει βαση η κριτικη στις 7000, δηλαδη τι χειροτερο μπορουσε να εχει συμβει να ερχονται με τσαλακομενο κουτι;
Σε ολους τους τομεις απο οποια πλευρα και να το κοιταξεις ειναι μαυρα χαλια.
Ας μη τα γραφω παλι 1-1 για 100 φορα τιποτα δεν πηγε καλα.
Το μονο που ηξεραν ηταν να ποσταρουν αστειακια stay safe this Holidays και να σου παρουσιαζουν πλασματικες επιδοσεις και πλασματικες καταναλωσεις στη παρουσιαση.
Ουτε στα 300w max εμειναν ουτε 70%+ επιδοσεις σου εδωσαν απο τη προηγουμενη γενια .
Πηρες μια 7700xt και μια 7800xt απο θεμα επιδοσεων σε τιμη 7900xt xtx, αλλα μονο η 4080 12gb εγινε βουκινο για τα βαφτισια.
Βεβαια σου εδωσε απλοχερα 384bit και 24GB VRAM να εχεις να βαζεις και στα γεμιστα αφου περισσευουν.
Aπο την αλλη στις 4000 το μονο αρνητικο που μπορει να βρεις ειναι η τιμη.
Και οταν λεμε για τιμη αυτη τη στιγμη που μιλαμε ειναι φθηνοτερες απο τις ελλατωματικες 7000.
Δεν ειναι οπως στις 6000 vs 3000 που στις κανουν δωρο μαζι με το Skip και λες δεν βαριεσαι τσαμπα τη πηρα για αυτα που μου δινει.
 

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
11 ώρες πριν, stratdevel1 είπε

https://www.dsogaming.com/articles/nvidia-geforce-rtx-4090-cannot-run-dead-space-remake-with-constant-60fps-at-native-4k-ultra-settings/

Καλά πάει αυτό, σύντομα δεν θα φτάνει η 4090 για 4Κ.... :)

 

Με αφορμη το δικο σου ποστ το γραφω και δεν αναφερομαι μονο σε εσενα.. 

Ποιος σας εχει πει οτι η 4090 και η 5090 και η 6090 βγηκαν και θα βγουν για να σας υποσχονται 60αρια ακατεβατα σε 4k; 

Δεν ειναι επι προσωπικου το μνμ το ακουω συχνα.. Εχετε την εντυπωση οτι οι καρτες βγαινουν με σκοπο να ικανοποιησουν τα OCD του καθενος ή οτι τα frametimes, τo framerate και τα 0.1 και 1% lows και το να σεταριστουν εκατονταδες συνδυασμοι h/w στο PC ειναι κατι που περναει απο καμια ISO πιστοποιηση;

Οι καρτες οσο δυνατες και να ειναι, μοιραια θα πεσουν και κατω απο τα ψυχολογικα σας ορια και θες και την αποψη μου; Αν το παιχνιδι το αξιζει, ΜΑΚΑΡΙ να μου γονατιζε την 4090 και ας εβλεπα τα μισα crybabies να κλαιγονται σε κατι γωνιες του ιντερνετ. Εν αναγκη θα το επαιζα οπως θελω σε επομενη γενια, αρκει να εβλεπα κατι πρωτοτυπο,ξεχωριστα ομορφο και καινοτομο στην οθονη μου.. Γιατι για αυτο πληρωνω προσωπικα οχι για να βαυκαλιζομαι βλεποντας 500fps στην οθονη μου..

Γιατι και πανω απο 60 να ειναι το avg framerate αν ειναι να τρωω την φετα του Stutter Protocol να μου λειπει το βυσσινο.. Πηρε 15 patch για να συνεχιζω να εχω κατι γελοια framedrops και κατι traversal stutters..

Eτσι ηταν παντα και ετσι θα ειναι.. Δεν πα να παρεις την ακριβοτερη GPU καθε γενιας, μοιραια θα ερθει η ωρα που θα φας φετα με αναλογες ρυθμισεις και σε καποια παιχνιδια μελλοντικα. Το αν θα ειναι σωστα optimized με καλο scaling ή οχι κλπ ειναι αλλη συζητηση..

Επισης οσοι δεν αντιλαμβανονται ποσο απαιτητικα ειναι και ποσο θα γινουν μελλοντικα ακομη πιο πολυ τα raytracing options στα next gen games και νομιζουν οτι θα μπορουν να τα τρεχουν και σε native 4k τοτε οκ δεν νομιζω οτι υπαρχει θεμα συζητησης.. Οι upscaling methods ηρθαν για να μεινουν και το μονο θεμα συζητησης πλεον ειναι κατα ποσο αξιοπιστες θα ειναι και δυνητικα θα γινουν..

Μερικοι συγχεετε  πραγματα που δεν θα επρεπε. Δεν εχει καμια απολυτως σχεση η ανιδεοτητα, η ανικανοτητα και ηπροχειροτητα καποιων game devs με την ωμη επεξεργαστικη ισχυ μιας καρτας γραφικων. Στο δια ταυτα φυσικα εμεις την πληρωνουμε, αλλα οποιος πιστευει οτι αυτα δεν προυπαρχουν απο καταβολης καρτων γραφικων ή οτι δεν παμε με τον κοινο παρανομαστη, μαλλον εχει καμια 10ετια max που ασχολειται με το PC gaming.. 

Επεξ/σία από d4ydr33m3r
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
6 ώρες πριν, pirmen56 είπε

Μην ξεχνάμε δε ότι οι GPU υπολογίζουν μόνο ό,τι βλέπεις στην οθόνη σου. Δεν ξεχωρίζουν το full game από το demo παρά μόνο στο θέμα των textures και της γεωμετρικής λεπτομέρειας(λόγω VRAM περιορισμών). Γιατί έχουμε ακούσε άπειρες φορές από δήθεν γνώστες ότι demo =/= full game ακόμα και στα γραφικά.

Απλά οι devs βλέπουν το DLSS σαν ευκαιρία για ακόμα λιγότερο optimization που μεταφράζεται σε εξοικονόμηση χρημάτων και ίσως και κάποια bonus κάτω από το τραπέζι από τους hw developers. Γιατί πώς αλλιώς να εξηγήσεις το να απαιτεί το Χ studio παιχνιδιών να αγοράσουν οι πελάτες του τελευταίας γενιάς υπερτιμολογημένες κάρτες(σε όλα τα res) προκειμένου να πάρουν το 100% της εμπειρίας; Μόνο αν παίρνουν μερίδιο από την πίτα των hw sales έχουν συμφέρον να το κάνουν.

 

τα technology demos μεχρι να ενσωματωθουν και να γινουν παιχνιδια χρειαζονται 3-4 χρονια,
ολα τα pc games ειναι console ports, οποτε τα γραφικα τρωνε απο εκει κοφτη, κι οχι γιατι βαριουνται οι devs και τους κανει τεμπεληδες το dlss, ειλικρινα απορω πως καθεστε και τα σκεφτεστε, τη τελευταια 5ετια μονο ενα Cyberpunk ήταν ανωτερο απο κονσολες γιατι εξαρχης φτιαχτηκε για pc και ειδαμε πως πηγε και τι κραξιμο εφαγε για αυτη την επιλογη

Επεξ/σία από Odyss3us
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Super Moderators
6 hours ago, pirmen56 said:

Απλά οι devs βλέπουν το DLSS σαν ευκαιρία για ακόμα λιγότερο optimization που μεταφράζεται σε εξοικονόμηση χρημάτων και ίσως και κάποια bonus κάτω από το τραπέζι από τους hw developers.

Amen!

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

55 λεπτά πριν, BlurayMoviesGreece είπε


Ουτε στα 300w max εμειναν ουτε 70%+ επιδοσεις σου εδωσαν απο τη προηγουμενη γενια .
 

To 70% το έδειξαν μόνο για ένα Game, σε σχέση με τα 2x 4x που έλεγε ο Πέτσινος για τις ADA είναι πταίσμα. Στο TDP ανέβηκαν μόνο 20W από το TDP της  6950ΧΤ (335 vs 355)

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, Odyss3us είπε

 

τα technology demos μεχρι να ενσωματωθουν και να γινουν παιχνιδια χρειαζονται 3-4 χρονια,
ολα τα pc games ειναι console ports οποτε τρωνε απο εκει κοφτη τα γραφικα οχι γιατι βαριουνται οι devs και τους κανει τεμπεληδες το dlss ειλικρινα απορω πως καθεστε και τα σκεφτεστε, τη τελευταια 5ετια μονο το Cyberpunk ήταν ανωτερο απο κονσολες γιατι εξαρχης φτιαχτηκε για pc και ειδαμε πως πηγε και τι κραξιμο εφαγε για αυτη την επιλογη

Spoiler

Στα 20+ χρόνια που είμαι gamer θυμάμαι πάντα ένα πράγμα. Κάθε φορά που η EPIC παρουσίαζε μια νέα engine και επιδείκνυε τα πρωτοποριακά γραφικά της μέσω κάποιου demo πάντα μα πάντα οι κονσόλες θα έφταναν αυτό το επίπεδο in-game. Έστω και προς το τέλος της ζωής τους.

Είναι γεμάτο το internet με εντυπωσιακά UE5 demos πάνω σε κάρτες επιπέδου 1080Ti/2080 που φανερώνουν ότι μπορούν με κάποιους περιορισμούς(π.χ. 1440p @30fps) να τα τρέξουν in-game. Αντίθετα το PC χρειαζόταν πάντα πολλαπλάσια δύναμη(π.χ. 2Χ ,3Χ κτλ.) για parity με τις κονσόλες, λόγω των πλασματικών απαιτήσεων(κακό optimization).

Να το εξηγήσω λίγο καλύτερα το τελευταίο. Η Radeon 7870 είχε parity με το ps4 στο ξεκίνημά του(παρόμοιες επιδόσεις σε παραπλήσια settings). Σήμερα, στα πιο προηγμένα παιχνίδια του ps4 η 7870 δεν βγάζει ούτε τις μισές επιδόσεις στην ίδια ποιότητα. Απλά ψάξε να δεις πώς τρέχει το RDR2 σε 7870 ή ακόμα και σε 7950. Φρικτή εμπειρία ακόμα και στα lowest settings που είναι παρασάγγας χειρότερα από τα optimised settings του ps4.

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

NVIDIA DLSS 3 is once again impressive, doubling performance in Hitman 3

οι devs βαριουνται μτφ: οσα δε φτανει η αλεπου τα κανει κρεμασταρια

Max Settings με RT on
Native: 51fps
Dlss2:  57fps
Dlss3:  100fps

Hitman-3-native-4K-vs-DLSS-2-vs-DLSS-3.p

https://www.dsogaming.com/articles/nvidia-dlss-3-is-once-again-impressive-doubling-performance-in-hitman-3/

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...