Προς το περιεχόμενο

AMD RX6000 Series (RDNA2/Big Navi)


Προτεινόμενες αναρτήσεις

Δημοσ.
1 λεπτό πριν, nikos5800 είπε

Έτσι ακριβώς ,το πιο σημαντικό feature του Ray tracing είναι οι αντανακλάσεις όπου στο rasterisation υπάρχει πρόβλημα και χτυπάει κατευθείαν στο μάτι σε αντίθεση με σκιές και global illumination 

Ναι τα reflections και στο Illumination που είναι και τα πιο κοστοβόρα σε επεξεργαστική ισχύ

  • Like 2
  • Απαντ. 11,5k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοσ.
47 λεπτά πριν, Aten-Ra είπε

https://www.techpowerup.com/review/metro-exodus-benchmark-performance-test/6.html

vram.png

Το ότι γίνεται rendered στα 1080p δεν σημαίνει ότι δεν χρειάζεται 4Κ textures όταν κάνει το upscaling. Το έχει πει και η ίδια η NVIDIA για το DLSS 2.0

Render σε 1440P άρα πέφτει το usage άσχετα με τα textures. Φαίνεται και στο πίνακα που έβαλες. 

Δημοσ. (επεξεργασμένο)

Μα φυσικα δεν αλλαζει η αναλυση των υφων δεν ισχυριστηκε κανεις αυτο.. Αλλα σαφεστατα και πεφτει η χρηση vram usage για ευνοητους λογους απο native resolution.. 

Αυτο παντως που βλεπω στο πινακακι δεν συναδει με αυτα που βλεπω εγω σε αυτα που υπαρχουν. Ισως αυτο που δειχνει το πινακακι να ειναι memory allocation και οχι actual usage.. Και στο metro exodus πεφτει η χρηση vram και στο death stranding και στο wd legion πεφτει και αρκετα μαλιστα τουλαχιστον 1Gb.. Αναλογα και την ποιοτητα DLSS που επιλεγεις και αλλαζουν πολλα..

Αλλα μιας και αναφερθηκε θα βαλω διαφορους τιτλους να τεσταρω οπως control, cod modern warfare να δω..

Nα το death stranding το βρηκα στο νετ ετσι προχειρα και με 8k κιολας.. 

 

9532_105_death-stranding-benchmarked-how-does-hideo-kojimas-game-run-at-8k_full.png

Επεξ/σία από d4ydr33m3r
Δημοσ.

Τα textures δεν ειναι τα μονα που πιάνουν vram.  Δεν γίνεται να έχεις 4κ textures με λιγότερη vram σε σχέση με dlss off , δεν θα είναι 4k . Αυτό που γίνεται είναι να γίνονται rendering σε χαμηλότερη ανάλυση για να υπάρχει εξοικονόμηση performance στα cuda cores αλλα στο τέλος καταλήγουν στον ίδιο όγκο δεδομένων 

Δημοσ. (επεξεργασμένο)
39 λεπτά πριν, Arkin είπε

Καλά που μπαίνει αραιά και που κανένα νέο σχετικό με το θέμα, γιατί διαβάζοντας νόμιζα οτι είμαι στο νήμα των ampere 😛

 

Επεξ/σία από akoinonitos
  • Like 13
Δημοσ. (επεξεργασμένο)
31 λεπτά πριν, noFEARgr είπε

Τα textures δεν ειναι τα μονα που πιάνουν vram.  Δεν γίνεται να έχεις 4κ textures με λιγότερη vram σε σχέση με dlss off , δεν θα είναι 4k . Αυτό που γίνεται είναι να γίνονται rendering σε χαμηλότερη ανάλυση για να υπάρχει εξοικονόμηση performance στα cuda cores αλλα στο τέλος καταλήγουν στον ίδιο όγκο δεδομένων 

Image reconstruction γινεται μεσω νευρωνικου δικτυου και πολλες φορες καταληγει να ειναι και οπτικα καλυτερο το αποτελεσμα και στο χαμηλοτερο output resolution.. Απλα οι υψηλης αναλυσης υφες ειναι πολυ δυσκολο να αναπαραχθουν και να προστεθει λεπτομερεια επαρκως για οπτικο αποτελεσμα καλο και ειναι λογικο να περνανε αυτουσια οπως και καποια αλλα οπως denoising . Πολλες φορες πλεον με DLSS καταληγει το output resolution να δειχνει και πιο ωραιο στο ματι.. 

35 λεπτά πριν, Arkin είπε

Αυτο περιμενουμε και μακαρι να προχωρησει γρηγορα το machine learning γιατι ειναι και μια διαδικασια χρονοβορα και trial & error.. Η Microsoft βεβαια συμμετεχει και αυτο ειναι πολυ ελπιδοφορο για να αποδωσει καρπους πολυ πιο γρηγορα..

Επεξ/σία από d4ydr33m3r
Δημοσ.

Όταν εξελιχθούν πολύ αυτά τα νευρωνικά, τα native res θα είναι απλά χασούρα για τις επιδόσεις. 

Καλά έλεγε ο Jensen, ότι οι μεγάλες επιδόσεις από HW απλά τελείωσαν και ότι πρέπει να πάμε σε έξυπνες software λύσεις τύπου DLSS για μεγάλα boost. 

  • Like 1
Δημοσ. (επεξεργασμένο)
11 ώρες πριν, Psycho_Warhead είπε

Το RT δεν έχει μόνο ένα feature για να πεις ότι θα τρέχει σφαίρα στην επόμενη ή μεθεπόμενη γενιά. Το RT έχει πολλά εφέ, shadows, ambient occlusion, reflections, global illumation κλπ. Όσο θα δυναμώνει το HW, τόσο πιο πολλά RT effects θα προσθέτουν οι devs. Full RT(Όλα τα εφέ δηλαδή) χωρίς καθόλου rasterization θα αργήσουμε πάρα πολύ ακόμα να δούμε. Ούτε σε 10ετία, εκτός κι αν γίνει κάνα περίεργο άλμα, με τους σημερινούς ρυθμούς πάντως δεν παίζει.

Tα πιο πολλα (shadows, ambient occlusion, reflections) απο αυτα που αναφερεις παντως ηδη γινονται σε επιπεδο software απο πολλα games. Η διαφορα με το RT της Nvidia επι της ουσιας ειναι οτι θα πεφτουν στους RT cores σε επιπεδο hardware, ετσι ωστε να μην επιβαρυνονται οι υπολοιποι πυρηνες της καρτας αλλα και να μην ανεβαινει το VRAM usage. Συνεπως δεν ειναι απαραιτητο το hardware για να εχεις RT elements σε επιπεδο software, αν και σιγουρα βοηθαει.

Το DirectML απο την αλλη εχει αλλη λογικη. Ειναι ML (machine learning) low-level API το οποιο και αυτο μπορει να εκμεταλευτει dedicated cores για να τρεξει να elements αλλα δεν ειναι απαραιτητο. Απο οτι εχω καταλαβει η AMD σε συνεργασια με την MS το εχει αναπτυξει με τετοιο τροπο ωστε να χρησιμοποιει τους υπαρχοντες πυρηνες της καρτας, ενω σιγουρα κομματι της εργασιας αναλαμβανει -εστω και μερικως- ακομα και η CPU (ηδη το κανει). Το SAM, που επισης ανεπτυξε σε συνεργασια η AMD, δειχνει οτι ισως μελλοντικα κινηθει και σε αυτη την λογικη ετσι ωστε χρεη RT να μπορουν να εκτελουν απο κοινου CPU & GPU.

Εκει που θελω να καταληξω ειναι οτι το Real Time RT δεν ειναι απο μονο του κατι μαγικο never to be seen. Το οτι υπαρχει dedicated hardware που δινει την δυνατοτητα να τρεξουν ταυτοχρονα πολλαπλα elements ειναι. Το θεμα ειναι πως με το DirectML επειδη πεφτει σε low lvl API δειχνει οτι με διαφορα optimizations μπορει η απαιτηση για dedicated hardware και να μην ειναι τοσο υψηλη σε πορους συστηματος (accelerators), ειτε σε επιπεδο GPU ειτε ακομα και σε επιπεδο CPU.

Επειδη πιστευω πως η λυση της MS εχει μεγαλυτερο "παραθυρο" αξιοποιησης σε επιπεδο Hardware, αλλα και επειδη μπορει να γινει Optimized σε τετοιο επιπεδο που δεν θα απαιτει dedicated RT cores, ειναι εκει που θα οδηγηθει η αγορα. Σε λιγα χρονια μαλιστα δεν θα συζηταμε για Real Time RT ή για πυρηνες RT, αλλα απλα για settings σε ενα game που κανεις On/Οff και επιλεγεις level of detail. 2 χρονια μετα δεν ειμαστε ακομα εκει και δεν θα ειμαστε πιστευω για αλλα 2.

Συνεπως, απο μια κακη υλοποιηση απο τις Turing και ανυπαρκτη υποστηριξη απο τους developers, φτασαμε στο "ok τωρα κατι δουλευει" των Ampere και ισως των RDNA2. Οι developers βεβαια και ακομα περισσοτερο οι graphic engines δεν φτιαχνονται ουτε σε μια μερα αλλα ουτε σε 2 χρονια. Μεχρι το software να εκμεταλευτει properly το hardware, σε επιπεδο πτωσης σαγονιων που διαβαζω, παλι θα συζηταμε για 1-2 games τον χρονο.

Αν μπορω σημερα να αγορασω rasterize performance που με καλυπτει στα 400 ευρω, δεν υπαρχει ουτε μια στο εκατομμυριο να δωσω 700, 800 και 1000 ευρω για να εχω global illuminations και πιο ρεαλιστικα reflections. Εσεις το παρουσιαζετε λες και αν δεν εχεις RT εισαι σε φαση οτι δεν εχεις καν 3D acceleration και πως θα ζησεις χωρις αυτο, ενω κυριολεκτικα -προς το παρον- η φαση ειναι "Χεστηκε η Φατμε στο Γενι Τζαμι".

Επεξ/σία από Crus
  • Like 6
Δημοσ. (επεξεργασμένο)
3 λεπτά πριν, Crus είπε

Tα πιο πολλα (shadows, ambient occlusion, reflections) απο αυτα που αναφερεις παντως ηδη γινονται σε επιπεδο software απο πολλα games. Η διαφορα με το RT της Nvidia επι της ουσιας ειναι οτι θα πεφτουν στους RT cores σε επιπεδο hardware, ετσι ωστε να μην επιβαρυνονται οι υπολοιποι πυρηνες της καρτας αλλα και να μην ανεβαινει το VRAM usage. Συνεπως δεν ειναι απαραιτητο το hardware για να εχεις RT elements σε επιπεδο software, αν και σιγουρα βοηθαει.

Το DirectML απο την αλλη εχει αλλη λογικη. Ειναι ML (machine learning) low-level API το οποιο και αυτο μπορει να εκμεταλευτει dedicated cores για να τρεξει να elements αλλα δεν ειναι απαραιτητο. Απο οτι εχω καταλαβει η AMD σε συνεργασια με την MS το εχει αναπτυξει με τετοιο τροπο ωστε να χρησιμοποιει τους υπαρχοντες πυρηνες της καρτας, ενω σιγουρα κομματι της εργασιας αναλαμβανει -εστω και μερικως- ακομα και η CPU (ηδη το κανει). Το SAM, που επισης ανεπτυξε σε συνεργασια η AMD, δειχνει οτι ισως μελλοντικα κινηθει και σε αυτη την λογικη ετσι ωστε χρεη RT να μπορουν να εκτελουν απο κοινου CPU & GPU.

Εκει που θελω να καταληξω ειναι οτι το Real Time RT δεν ειναι απο μονο του κατι μαγικο never to be seen. Το οτι υπαρχει dedicated hardware που δινει την δυνατοτητα να τρεξουν ταυτοχρονα πολλαπλα elements ειναι. Το θεμα ειναι πως με το DirectML επειδη πεφτει σε low lvl API δειχνει οτι με διαφορα optimizations μπορει η απαιτηση για dedicated hardware και να μην ειναι τοσο υψηλη σε πορους συστηματος (accelerators), ειτε σε επιπεδο GPU ειτε ακομα και σε επιπεδο CPU.

Επειδη πιστευω πως η λυση της MS εχει μεγαλυτερο "παραθυρο" αξιοποιησης σε επιπεδο Hardware, αλλα και επειδη μπορει να γινει Optimized σε τετοιο επιπεδο που δεν θα απαιτει dedicated RT cores, ειναι εκει που θα οδηγηθει η αγορα. Σε λιγα χρονια μαλιστα δεν θα συζηταμε για Real Time RT ή για πυρηνες RT, αλλα απλα για settings σε ενα game που κανεις On/Οff και επιλεγεις level of detail. 2 χρονια μετα δεν ειμαστε ακομα εκει και δεν θα ειμαστε πιστευω για αλλα 2.

Συνεπως, απο μια κακη υλοποιηση απο τις Turing και ανυπαρκτη υποστηριξη απο τους developers, φτασαμε στο "ok τωρα κατι δουλευει" των Ampere και ισως των RDNA2. Οι developers βεβαια και ακομα περισσοτερο οι graphic engines δεν φτιαχνονται ουτε σε μια μερα αλλα ουτε σε 2 χρονια. Μεχρι το software να εκμεταλευτει properly το hardware, σε επιπεδο πτωσης σαγονιων που διαβαζω, παλι θα συζηταμε για 1-2 games τον χρονο.

Αν μπορω σημερα να αγορασω rasterize performance που με καλυπτει στα 400 ευρω, δεν υπαρχει ουτε μια στο εκατομμυριο να δωσω 700, 800 και 1000 ευρω για να εχω global illuminations και πιο ρεαλιστικα reflections. Εσεις το παρουσιαζετε λες και αν δεν εχεις RT εισαι σε φαση οτι δεν εχεις καν 3D acceleration και πως θα ζησεις χωρις αυτο, ενω κυριολεκτικα -προς το παρον- η φαση ειναι "Χεστηκε η Φατμε στο Γενι Τζαμι".

Θα το δούμε στο CP 2077 αν είναι έτσι.. Τα ''Δεν με νοιάζει το RT'' είναι κυρίως για άτομα που δεν ενδιαφέρονται για eye candy και δίνουν 200-300 ευρώ το πολύ για κάρτες. Τα 700-1000 τα δίνεις για eye candy όμως. 

Επεξ/σία από Psycho_Warhead
Δημοσ.
26 λεπτά πριν, d4ydr33m3r είπε

Image reconstruction γινεται μεσω νευρωνικου δικτυου και πολλες φορες καταληγει να ειναι και οπτικα καλυτερο το αποτελεσμα και στο χαμηλοτερο output resolution.. Απλα οι υψηλης αναλυσης υφες ειναι πολυ δυσκολο να αναπαραχθουν και να προστεθει λεπτομερεια επαρκως για οπτικο αποτελεσμα καλο και ειναι λογικο να περνανε αυτουσια οπως και καποια αλλα οπως denoising . Πολλες φορες πλεον με DLSS καταληγει το output resolution να δειχνει και πιο ωραιο στο ματι.. 

Αυτο περιμενουμε και μακαρι να προχωρησει γρηγορα το machine learning γιατι ειναι και μια διαδικασια χρονοβορα και trial & error.. Η Microsoft βεβαια συμμετεχει και αυτο ειναι πολυ ελπιδοφορο για να αποδωσει καρπους πολυ πιο γρηγορα..

Απο τη μια εχουμε την MS απο την αλλη και τις 2 κονσολες που θα εχουν DML οποτε πιστευω μεσα στο 2021 θα μας εκπληξει το συγκεκριμενο feature και θα τριβουμε τα ματια μας. Σε συνδιασμο με filelity FX το οποιο το ειδα για πρωτη φορα στο Rage 2 θα εχουμε θαυματα στην εικονα αναλογικα με το perf boost που θα περνουμε. 

Δημοσ.
1 λεπτό πριν, Psycho_Warhead είπε

Θα το δούμε στο CP 2077 αν είναι έτσι.. Τα ''Δεν με νοιάζει το RT'' είναι κυρίως για άτομα που δεν ενδιαφέρονται για eye candy και δίνουν 200-300 ευρώ το πολύ για κάρτες. Τα 700-1000 τα δίνεις για eue candy όμως. 

Ναι ειμαι σιγουρος οτι οσοι αγοραζουν 700-1000 ευρω καρτες για το eye candy τις αγοραζουν για να παιζουν CoD και Fortnite.. Οι περισσοτεροι μαλιστα σε 1080p αναλυση (και αντε 144hz) για να δειχνουν καλυτερα τα visuals.. 😛

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...