Sakiz105 Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 3 λεπτά πριν, yiannis1991 είπε Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S.. Η 3080 512 bus έχει; ps5/xsx γράφω, το σβήνω όλο και γράφω ps4. Μετά άκουγα στο κεφάλι μου μέσα τον είχο από το restart στα windows xp
Sheogorath Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 24 λεπτά πριν, yiannis1991 είπε Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S.. Η 3080 512 bus έχει; 320 (384 cut down) αλλά έχει μνήμες GDDR6X, που είναι “nvidia only” από όσο έχω διαβασει. 1
malakudi Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 3 λεπτά πριν, Sheogorath είπε 320 (384 cut down) αλλά έχει μνήμες GDDR6X, που είναι “nvidia only” από όσο έχω διαβασει. Τώρα στην αρχή είναι nvidia only, μόλις γίνει jedec (όπως πολλά στοιχεία της GDDR5X είχαν γίνει JEDEC στην GDDR6) θα μπορούν να την χρησιμοποιούν όλοι. Για το RDNA2 σίγουρα δε μπορεί να παίξει με GDDR6X 2
Επισκέπτης Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 Με 352-bit bus όπως η 2080Ti και 16GB δεν θα φτάνει το bandwidth για το big navi;
Sheogorath Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 27 λεπτά πριν, yiannis1991 είπε Με 352-bit bus όπως η 2080Ti και 16GB δεν θα φτάνει το bandwidth για το big navi; Δεν χωρίζει (εύκολα) τα 352 (384) για 16 γίγα. Και μάλλον όχι, δεν αρκεί μιάμιση φορά bandwith για δυο φορές το shading power σε σχέση με 5700xt, όταν ήδη αυτό ήταν πνιγμένο. 2
kkatzos Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 (επεξεργασμένο) 1 ώρα πριν, sir ImPeCaBlE είπε Στο παρελθόν πάντως HBM δεν είχε μπει γιατί δεν έφτανε το bandwidth για gaming χρήση. Είχε μπει για να περιοριστεί η κατανάλωση και γιατί το χρειάζονταν άλλες αγορές. Επίσης ανεβάζει το κόστος κατασκευής. Οπότε αν είσαι gamer, imo, δεν είναι ευχάριστη εξέλιξη. Όχι απόλυτα ακριβές. Είχε μπει ΚΑΙ για να περιορίσει την κατανάλωση της κάρτας. Για να υπάρξει αντίστοιχο ποσό mem bandwidth με GDDR5 για να ταΐσει την πεινασμένη GCN θα έπρεπε να μπει memory interface μεγαλύτερο από 512-bit. Οι R9 390(X) με τον 512-bit και τις 6Gbps μνήμες έφταναν τα 384GB/s, αρκετά κάτω από τα 512GB/s της Fury. Αν μπορούσε (λέμε τώρα) να υλοποιηθεί μεγαλύτερο mem bus των 512-bit θα ανέβαζε το κόστος του RnD, το κόστος του PCB στην υλοποίηση (ίσως ξεπερνώντας αυτό για HBM) όπως και το μέγεθος της GPU και του board γενικότερα. Επίσης θα απαιτούσε πολύ μεγαλύτερο αριθμό RAM chips (50% - 100% πάνω ανάλογα με τι το συγκρίνουμε) με άλλες παρενέργειες αυτό... Επεξ/σία 21 Σεπτεμβρίου 2020 από kkatzos 2
DeareN Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 1 ώρα πριν, yiannis1991 είπε Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S.. Η 3080 512 bus έχει; Off topic μιας και δε πήρα 3080 λόγω καμιά 10αρια exclusives που θέλω πρώτα να τερματίσω στο PS5 (από το PS4 πολλά από αυτά) Τόσο χάλια το PS5 σε σχέση με το XBOX? Γιατί 2080S με καλό optimization χτυπάει 4k/60. Η 5700XT πώς θα βγάζει 4K/60 που διαφημίζει πχ στο DMC 5 η Sony?
sir ImPeCaBlE Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 9 λεπτά πριν, kkatzos είπε Όχι απόλυτα ακριβές. Είχε μπει ΚΑΙ για να περιορίσει την κατανάλωση της κάρτας. Για να υπάρξει αντίστοιχο ποσό mem bandwidth με GDDR5 για να ταΐσει την πεινασμένη GCN θα έπρεπε να μπει memory interface μεγαλύτερο από 512-bit. Οι R9 390(X) με τον 512-bit και τις 6Gbps μνήμες έφταναν τα 384GB/s, αρκετά κάτω από τα 512GB/s της Fury. Αν μπορούσε (λέμε τώρα) να υλοποιηθεί μεγαλύτερο mem bus των 512-bit θα ανέβαζε το κόστος του RnD, το κόστος του PCB στην υλοποίηση (ίσως ξεπερνώντας αυτό για HBM) όπως και το μέγεθος της GPU και του board γενικότερα. Επίσης θα απαιτούσε πολύ μεγαλύτερο αριθμό RAM chips (50% - 100% πάνω ανάλογα με τι το συγκρίνουμε) με άλλες παρενέργειες αυτό... Σου λέω ότι δεν υπήρχε ανάγκη για 512GB/s bandwidth για gaming και μου απαντάς δεν υπήρχε άλλος τρόπος να έχει 512GB/s bandwidth. Go figure.
Επισκέπτης Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 13 λεπτά πριν, DeareN είπε Off topic μιας και δε πήρα 3080 λόγω καμιά 10αρια exclusives που θέλω πρώτα να τερματίσω στο PS5 (από το PS4 πολλά από αυτά) Τόσο χάλια το PS5 σε σχέση με το XBOX? Γιατί 2080S με καλό optimization χτυπάει 4k/60. Η 5700XT πώς θα βγάζει 4K/60 που διαφημίζει πχ στο DMC 5 η Sony? Λίγο καλύτερα από 5700ΧΤ. Θα βγάζει στα εύκολα παιχνίδια. Στα τούμπανα γραφικά θα κάνει scaling προς τα κάτω και reconstruction ή "optimization" που στην ουσία σημαίνει απλά κόβω settings, δεν κάνουν κάποια μαγική τελετή στην πανσέληνο για να ανέβουν τα fps Εδώ δεν μπορεί η 2080Ti να κρατήσει 4Κ/60 παντού θα μπορούν οι κονσόλες που έχουν λιγότερη δύναμη. Σίγουρα βοηθάει το code to the metal αλλά πόσο; Για παιχνίδια με σοβαρά visuals, το τονίζω..
Sakiz105 Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 2 λεπτά πριν, yiannis1991 είπε Λίγο καλύτερα από 5700ΧΤ. Θα βγάζει στα εύκολα παιχνίδια. Στα τούμπανα γραφικά θα κάνει scaling προς τα κάτω και reconstruction ή "optimization" που στην ουσία σημαίνει απλά κόβω settings, δεν κάνουν κάποια μαγική τελετή στην πανσέληνο για να ανέβουν τα fps Εδώ δεν μπορεί η 2080Ti να κρατήσει 4Κ/60 παντού θα μπορούν οι κονσόλες που έχουν λιγότερη δύναμη. Σίγουρα βοηθάει το code to the metal αλλά πόσο; Για παιχνίδια με σοβαρά visuals, το τονίζω.. 16gb vram και i/o storage θα βοηθάνε με μεγαλύτερη ανάλυση textures και ελαχιστοποίηση texture popping/ draw distance + motion blur/ και το τελευταίο τραγικό στα games, dithering transparency. Ναι μεν το μάτι δεν το προσέχει 90% των περιπτώσεων, αλλά αν πας από το pc σε κονσόλα μια φορά τον χρόνο είσαι σαν τον παρασκευά όταν μπαίνει στο studio
Επισκέπτης Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 (επεξεργασμένο) 18 λεπτά πριν, Sakiz105 είπε 16gb vram και i/o storage θα βοηθάνε με μεγαλύτερη ανάλυση textures και ελαχιστοποίηση texture popping/ draw distance + motion blur/ και το τελευταίο τραγικό στα games, dithering transparency. Ναι μεν το μάτι δεν το προσέχει 90% των περιπτώσεων, αλλά αν πας από το pc σε κονσόλα μια φορά τον χρόνο είσαι σαν τον παρασκευά όταν μπαίνει στο studio Νομίζω τα 16GB είναι total system memory όχι μόνο για την gpu, correct me if I am wrong.. Στο DF αν θυμάμαι καλά, είπαν ότι το πιο γρήγορο Ι/Ο δεν βοηθάει με το lod/texture popping.. Επεξ/σία 21 Σεπτεμβρίου 2020 από Επισκέπτης
Sakiz105 Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 Μόλις τώρα, yiannis1991 είπε Νομίζω τα 16GB είναι total system memory όχι μόνο για την gpu, correct me if I am wrong.. σε ps4/xbone είχαν 8 και έκαναν αρχικά εως 4,5 allocate στην vram και αργότερα έφτασαν μέχρι και 6.
kkatzos Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 (επεξεργασμένο) 1 ώρα πριν, sir ImPeCaBlE είπε Σου λέω ότι δεν υπήρχε ανάγκη για 512GB/s bandwidth για gaming και μου απαντάς δεν υπήρχε άλλος τρόπος να έχει 512GB/s bandwidth. Go figure. Αυτό τώρα πως το συμπεραίνεις; Έχεις κάπου τα performance figures των διαφόρων γενεών GCN σε συνάρτηση με το mem bandwidth; Ή κρίνεις με Nvidia λογική; Spoiler Σε διαψεύδει η Radeon VII (πρακτικά ίδια αρχιτεκτονική με τη Fury) με το 1TB/s. Με overclock στη μνήμη, ακόμα και κρατώντας τον πυρήνα στοκ, παίρνει αρκετά. Κάνε βόλτα στο αντίστοιχο thread να δεις τι λένε. R9 290X vs R9 390: Σε παιχνίδια που δεν πλησιάζουν τα όρια του VRAM capacity είναι ταχύτερη η δεύτερη παρόλο που έχει 256 λιγότερα shaders ενώ έχουν ακριβώς ίδιο clock freq. Η διαφορά οφείλεται βέβαια στο αυξημένο mem bandwidth. Η Fury που είχε 1000 shaders παραπάνω εννοείται ότι αξιοποιούσε και το τελευταίο GB/s που της δίνονταν... Επεξ/σία 21 Σεπτεμβρίου 2020 από kkatzos 1
sir ImPeCaBlE Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 12 λεπτά πριν, kkatzos είπε Αυτό τώρα πως το συμπεραίνεις; Έχεις κάπου τα performance figures των διαφόρων γενεών GCN σε συνάρτηση με το mem bandwidth; Ή κρίνεις με Nvidia λογική; Απόκρυψη περιεχομένων Σε διαψεύδει η Radeon VII (πρακτικά ίδια αρχιτεκτονική με τη Fury) με το 1TB/s. Με overclock στη μνήμη, ακόμα και κρατώντας τον πυρήνα στοκ, παίρνει αρκετά. Κάνε βόλτα στο αντίστοιχο thread να δεις τι λένε. R9 290X vs R9 390: Σε παιχνίδια που δεν πλησιάζουν τα όρια του VRAM capacity είναι ταχύτερη η δεύτερη παρόλο που έχει 256 λιγότερα shaders ενώ έχουν ακριβώς ίδιο clock freq. Η διαφορά οφείλεται βέβαια στο αυξημένο mem bandwidth. Η Fury που είχε 1000 shaders παραπάνω εννοείται ότι αξιοποιούσε και το τελευταίο GB/s που της δίνονταν... Συνεχίζεις να μου δείχνεις compute πυρήνες με μεγάλο bandwidth για να μου πεις ότι οι compute πυρήνες θέλουν μεγάλο bandwidth. Πραγματικά δε καταλαβαίνω πως βγάζεις συμπεράσματα από αυτά που γράφεις. Τέσπα βαριέμαι να επιχειρηματολογήσω για τα αυτονόητα. Βγάλε ότι συμπέρασμα θες: Radeon R9 380X GCN 3rd gen 2048:128:32 182.4GB/s Radeon R9 Fury X GCN 3rd gen 4096:256:64 512GB/s
kkatzos Δημοσ. 21 Σεπτεμβρίου 2020 Δημοσ. 21 Σεπτεμβρίου 2020 32 λεπτά πριν, sir ImPeCaBlE είπε Βγάλε ότι συμπέρασμα θες: Radeon R9 380X GCN 3rd gen 2048:128:32 182.4GB/s Radeon R9 Fury X GCN 3rd gen 4096:256:64 512GB/s Πραγματικά δεν μπορώ να καταλάβω το συλλογισμό σου. Θες να πεις ότι δεν υπάρχει γραμμικότητα; Αυτονόητο. Σύμφωνα με techpowerup: 64% ταχύτερη η Fury X ενώ έχει σχεδόν τριπλάσιο bandwidth. 60% η 2080Ti από την 2060 με σχεδόν διπλάσιο. άρα; Αυτό σημαίνει ότι το "παραπάνω" bandwidth στη Fury έμεινε αναξιοποίητο; Γιατί, πιστεύω, αυτό σημαίνει το "όχι γιατί δεν έφτανε" στο αρχικό σου post.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα