Προς το περιεχόμενο

AMD RX 7000 Series [RDNA 3/Navi31]


Psycho_Warhead

Προτεινόμενες αναρτήσεις

Δημοσ. (επεξεργασμένο)
1 minute ago, BlurayMoviesGreece said:

Ναι αλλα κανενας δεν ειχε το διλημμα αν θα παρει 6700xt η 3060.
Αλλη τιμη αλλες επιδοσεις αλλη χρηση Vram.
Την 6700xt θα τη συγκρινεις με 3060Ti 4060Τi που με 8gb την τακτοποιουν μια χαρα.

Ναι αλλά η χρήση vram είναι ίδια, εσύ είπες ότι είναι διαφορετική, άσχετα ποιός αγοράζει τι. Με την λογική σου, αφού η  3060 είναι πιο αργή, θα έπρεπε να τρώει λιγότερο vram, που προφανώς δεν ισχύει, όσο έχει τρώει. Να έδινε σωστή ποσότητα vram η Nvidia, να τη συγκρίναμε.

Επεξ/σία από John_on_PC
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
6 λεπτά πριν, John_on_PC είπε

Ναι αλλά η χρήση vram είναι ίδια, εσύ είπες ότι είναι διαφορετική, άσχετα ποιός αγοράζει τι. Με την λογική σου, αφού η  3060 είναι πιο αργή, θα έπρεπε να τρώει λιγότερο vram, που προφανώς δεν ισχύει, όσο έχει τρώει. Να έδινε σωστή ποσότητα vram η Nvidia, να τη συγκρίναμε.

Η χρηση ειναι ιδια αλλα μιλαμε για διαφορετικους πυρηνες :P
Oταν συγκρινεις την 6700xt και τη 4060Ti και λεει καποιος "παρε τη 6700xt γιατι ειναι 12 και τα 8 ειναι λιγα"
Εκει θα πας να δεις Vram Usage και Performance.
Aν ειναι να διαλεγουμε στη τυχη τοτε η Nvidia δινει παραπανω Vram απο την AMD γιατι η 3060 ειναι 12gb και η 7600 ειναι 8gb :P
Προφανως και τη 7600 θα τη συγκρινεις με τη 4060 και οχι με τη 3060 που ειναι κατωτερη.

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
6 minutes ago, BlurayMoviesGreece said:

Η χρηση ειναι ιδια αλλα μιλαμε για διαφορετικους πυρηνες :P
Oταν συγκρινεις την 6700xt και τη 4060Ti και λεει καποιος "παρε τη 6700xt γιατι ειναι 12 και τα 8 ειναι λιγα"
Εκει θα πας να δεις Vram Usage και Performance.
Aν ειναι να διαλεγουμε στη τυχη τοτε η Nvidia δινει παραπανω Vram απο την AMD γιατι η 3060 ειναι 12gb και η 7600 ειναι 8gb :P

Ναι δεν λέω πως 8gb δεν φτάνουν τώρα. Λέω πως αν δύο κάρτες amd και nvidia έχουν 12gb vram, με τα ίδια settings και άσχετα από τα fps τους θα τρώνε περίπου ίδιο vram, άσχετα από το allocation. Δεν έχει κάνει καμία μαγία η nvidia και χρησιμοποιεί λιγότερο vram. Απλά έχει παραπάνω stutters και pop in όταν δεν φτάνει το vram. Δες και εδώ 4060ti 16gb vs 6700xt 12gb σε 1440p που δεν τρώει καν όλο το vram:

Screenshot2023-12-30153555(1).jpg.59fb8ce25b8b2939e9a9aaf02e5c5a8c.jpg

Και cyberpunk:

Screenshot2023-12-30154131.jpg.44284d6c3306d1577989aa3a48cd2ba4.jpg

Σε άλλα παιχνίδια τρώει περισσότερο η μία, σε άλλα η άλλη. Ίδιες επιδόσεις και η Nvidia τρώει παραπάνω vram, δεν βλέπω να χρησιμοποιεί 1.5gb vram λιγότερο όπως είπες.

Επεξ/σία από John_on_PC
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
17 λεπτά πριν, John_on_PC είπε

Ναι δεν λέω πως 8gb δεν φτάνουν τώρα. Λέω πως αν δύο κάρτες amd και nvidia έχουν 12gb vram, με τα ίδια settings και άσχετα από τα fps τους θα τρώνε περίπου ίδιο vram, άσχετα από το allocation. Δεν έχει κάνει καμία μαγία η nvidia και χρησιμοποιεί λιγότερο vram. Απλά έχει παραπάνω stutters και pop in όταν δεν φτάνει το vram. Δες και εδώ 4060ti 16gb vs 6700xt 12gb σε 1440p που δεν τρώει καν όλο το vram:

Screenshot2023-12-30153555(1).jpg.59fb8ce25b8b2939e9a9aaf02e5c5a8c.jpg

Και cyberpunk:

Screenshot2023-12-30154131.jpg.44284d6c3306d1577989aa3a48cd2ba4.jpg

Σε άλλα παιχνίδια τρώει περισσότερο η μία, σε άλλα η άλλη. Ίδιες επιδόσεις και η Nvidia τρώει παραπάνω vram, δεν βλέπω να χρησιμοποιεί 1.5gb vram λιγότερο όπως είπες.

Η 4060 Ti 16gb ειναι η εξαιρεση , ειναι ακριβως οτι κανει η AMD σε ολες.
Εδωσε σε μια Low-Mid καρτα 16gb Vram που στην ουσια δεν τα χρειαζεται και δεν θα τα γεμισει ποτε, ενω θα επρεπε να τα δωσει στη 4070 ωστε να εχει τη δυνατοτητα να παιξει καποια games 4K.
Για αυτο ακριβως το λογο 4060Ti 8gb και 4060Ti 16gb εχουν ακριβως τα ιδια Average και τα 8 παραπανω πρακτικα ειναι αχρηστα γιατι οταν τα χρειαστει θα εχει κρεμασει απο πυρηνα και θα ειναι στα 30-40FPS.

Screenshot_35.jpg

Screenshot_37.jpg

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 ώρες πριν, BlurayMoviesGreece είπε

Aν ειχε ικανο πυρηνα για 12 δεν θα ηταν κατω απο 8αρες.
Μη ξεχνας οτι το 8 της Nvidia ειναι καπου 9.5 στην AMD.
Δεν θα βρεις ουτε μια Nvidia να ειναι κατω απο AMD με λιγοτερη Vram.

Αυτά είναι marketing πέτσινου.

Υπάρχουν παραδείγματα που η 3070 κλ@νει λόγω 8GB, ενώ η 6700ΧΤ είναι μια χαρά. Και τα avg fps δεν λένε πάντα την αλήθεια γιατί μπορεί πολύ απλά να μην φορτώνει textures λόγω έλλειψης vram. Η 6700ΧΤ είναι καρτάρα, άνετα στις καλύτερες κάρτες που έχει βγάλει η AMD τα τελευταία χρόνια.

  • Like 4
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, just_a_dude είπε

Αυτά είναι marketing πέτσινου.

Υπάρχουν παραδείγματα που η 3070 κλ@νει λόγω 8GB, ενώ η 6700ΧΤ είναι μια χαρά. Και τα avg fps δεν λένε πάντα την αλήθεια γιατί μπορεί πολύ απλά να μην φορτώνει textures λόγω έλλειψης vram. Η 6700ΧΤ είναι καρτάρα, άνετα στις καλύτερες κάρτες που έχει βγάλει η AMD τα τελευταία χρόνια.

Μα για να φτασει να το κανει αυτο θα πρεπει να ειναι cap απο Vram(7,9) και οχι με 7 στα 8 χρηση.
Οι περιπτωσεις ηταν ελαχιστες σε 2 Unoptimized games που μετα απο μερικα Patch ηταν μια χαρα.
 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, BlurayMoviesGreece είπε

Μα για να φτασει να το κανει αυτο θα πρεπει να ειναι cap απο Vram(7,9) και οχι με 7 στα 8 χρηση.
Οι περιπτωσεις ηταν ελαχιστες σε 2 Unoptimized games που μετα απο μερικα Patch ηταν μια χαρα.
 

ναι αλλά στα καινούργια τα 8GB δεν φτάνουν ούτε για ζήτω. Στην 6700ΧΤ μπορείς να βάλεις τα textures στο τέρμα (που κάνουν ίσως την μεγαλύτερη διαφορά στα visuals) και τα υπόλοιπα στα medium και είσαι κομπλέ. Ενώ στην 3070 πρέπει να τα ρίξεις. Και δεν νομίζω να είναι 2 games μόνο. Σε αρκετά old gen βλέπω πάνω από 8GB σε 1440p.

  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
3 λεπτά πριν, just_a_dude είπε

ναι αλλά στα καινούργια τα 8GB δεν φτάνουν ούτε για ζήτω. Στην 6700ΧΤ μπορείς να βάλεις τα textures στο τέρμα (που κάνουν ίσως την μεγαλύτερη διαφορά στα visuals) και τα υπόλοιπα στα medium και είσαι κομπλέ. Ενώ στην 3070 πρέπει να τα ρίξεις. Και δεν νομίζω να είναι 2 games μόνο. Σε αρκετά old gen βλέπω πάνω από 8GB σε 1440p.

Μα και η 4060Ti 8gb ειναι και μια χαρα παιζει σε ολα, ακομα και στα πιο βαρια αποδιδει καλυτερα απο 6700xt.

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, BlurayMoviesGreece είπε

Μα και η 4060Ti 8gb ειναι και μια χαρα παιζει σε ολα, ακομα και στα πιο βαρια αποδιδει καλυτερα απο 6700xt.

σε 1440p με την 4070 που είναι ίδια αρχιτεκτονική με την 4060Ti βλέπω used πάνω από 8. Πιστεύω υπάρχουν περιπτώσεις που τα 8GB της 4060Ti δημιουργούν θέματα, απλά δεν φαίνονται στα avg fps. Αλλά κάλλιστα μπορεί να μην φορτώνει textures σε κάποιες περιπτώσεις.

Όπως και να έχει

c290a4cd-4463-4b28-aff3-8dcea89d2ff7_tex

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
21 λεπτά πριν, just_a_dude είπε

σε 1440p με την 4070 που είναι ίδια αρχιτεκτονική με την 4060Ti βλέπω used πάνω από 8. Πιστεύω υπάρχουν περιπτώσεις που τα 8GB της 4060Ti δημιουργούν θέματα, απλά δεν φαίνονται στα avg fps. Αλλά κάλλιστα μπορεί να μην φορτώνει textures σε κάποιες περιπτώσεις.

Όπως και να έχει

c290a4cd-4463-4b28-aff3-8dcea89d2ff7_tex

Kαι στη 4090 μπορει να βλεπουν 15 τι παει να πει οτι δεν μπορεις να παιξεις 1440p με 4070 4060Ti 8gb επειδη δεν εχουν 15;
Aλλο Usage εχει η 4070 και αλλο η 4060Ti. ειτε ειναι με 8 ειτε με 16.
To πιο προσφατο που καποιες δεν φορτωναν ολα τα γραφικα ηταν το Starfield με τις AMD :P
Ειχε λιγοτερους πλανητες :P
https://www.tomshardware.com/news/starfield-fails-at-stars-on-amd-gpus

https://www.reddit.com/r/Amd/comments/16gezsi/amd_gpu_users_reportedly_cant_see_the_sun_on_any/

 

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
2 hours ago, BlurayMoviesGreece said:

Στα περισσοτερα Games κανουν μεγαλυτερη χρηση Vram στα ιδια Settings λογο διαφορετικης διαχειρισης.

Screenshot_32.jpg

Screenshot_33.jpg

Ναι οκ, αλλά αυτό είναι "άλμα" σαν συμπέρασμα, για να το βγάλει θα πρέπει οι δυο κάρτες να βγάζουν ακριβώς το ίδιο αποτέλεσμα στους ίδιους χρόνους (fps, frame times, wtv), όλα ίδια με μόνη διαφορά την vram για να πεις ότι η AMD θέλει χρειάζεται περισσότερη vram για το ίδιο αποτέλεσμα που είναι σχεδόν αδύνατο...

 

 

2 hours ago, BlurayMoviesGreece said:

Το να λεμε λοιπον αυθαιρετα "προτιμω της 12αρα" "θα επρεπε να εχει 16" δεν εχει καμια βαση αν ο πυρηνας σε κρεμασει πριν την εκμεταλευτεις.
Ειναι σαν να εχεις 128gb ram για Gaming ενω με 32gb εισαι μια χαρα.

Bottleneck πάντα κάπου θα έχεις, απλά μέχρι "πέρυσι" ήταν φτηνότερο να βάλεις "1gb" παραπάνω παρά να βελτιώσεις τον πυρήνα οπότε όταν η nvidia βγάζει σήμερα 8gb επίτηδες για να περιορίσει τις επιδόσεις μας κακοφαίνεται και το να ανεβάσεις το texture quality δεν έχει επιπτώσεις στον πυρήνα οπότε γιατί να έχεις bottleneck εκεί;

Πόσο μάλλον όταν έρχεται και σου λέει ότι για να βάλει περισσότερη vram στην 4060ti (αν θυμάμαι καλά) αναγκάζετε να την κάνει clam shell type που είναι ακριβότερη υλοποίηση.... σοβαρά τώρα;

Επεξ/σία από Havik
  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
23 λεπτά πριν, Havik είπε

Ναι οκ, αλλά αυτό είναι "άλμα" σαν συμπέρασμα, για να το βγάλει θα πρέπει οι δυο κάρτες να βγάζουν ακριβώς το ίδιο αποτέλεσμα στους ίδιους χρόνους (fps, frame times, wtv), όλα ίδια με μόνη διαφορά την vram για να πεις ότι η AMD θέλει χρειάζεται περισσότερη vram για το ίδιο αποτέλεσμα που είναι σχεδόν αδύνατο...

Δεν λειτουργουν με τον ιδιο τροπο στη διαχειριση της Vram για να μπορεσουν να τα βγαλουν ολα ιδια.
Γι αυτο εχει φορτωσει ολες τις καρτες με παραπανω Vram γιατι σε πολλες περιπτωσεις χρειαζονται παραπανω.
Σε 1080p καρτες ειναι αστειο να θεωρουνται φυσιολογικα τα 12 και τα 16gb Vram επειδη μια καρτα 3ετιας με 8gb Vram σε 1440p δεν επαιζε οπως επρεπε να παιζει σε 2 AAA Games του 2023 γιατι ειχαν κακο Optimization τη 1η μερα κυκλοφοριας.
Kαι στο Hogwart Legacy στην αρχη ολες οι AMD εβγαζαν μονοψηφια FPS δεν τις κρεμασαμε για παντα.
Γελασαμε, πειραξαμε ο ενας τον αλλον και μετα το εφτιαξαν, οπως εφτιαξαν και το Vram Usage στο TLOU.
Aυτο με τη Vram εχει γινει σημαια για το 2023.
 

Spoiler

Screenshot_34.jpg

 

Επεξ/σία από BlurayMoviesGreece
  • Confused 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
24 minutes ago, BlurayMoviesGreece said:

Δεν λειτουργουν με τον ιδιο τροπο στη διαχειριση της Vram για να μπορεσουν να τα βγαλουν ολα ιδια.
Γι αυτο εχει φορτωσει ολες τις καρτες με παραπανω Vram γιατι σε πολλες περιπτωσεις χρειαζονται παραπανω.
Σε 1080p καρτες ειναι αστειο να θεωρουνται φυσιολογικα τα 12 και τα 16gb Vram επειδη μια καρτα 3ετιας με 8gb Vram σε 1440p δεν επαιζε οπως επρεπε να παιζει σε 2 AAA Games του 2023 γιατι ειχαν κακο Optimization τη 1η μερα κυκλοφοριας.
Kαι στο Hogwart Legacy στην αρχη ολες οι AMD εβγαζαν μονοψηφια FPS δεν τις κρεμασαμε για παντα.
Γελασαμε, πειραξαμε ο ενας τον αλλον και μετα το εφτιαξαν, οπως εφτιαξαν και το Vram Usage στο TLOU.
Aυτο με τη Vram εχει γινει σημαια για το 2023.
 

  Reveal hidden contents

Screenshot_34.jpg

 

Μα αυτό ακριβώς έδειξα. Πως με τα ίδια gb vram, ίδια διαχείριση vram έχουν. Και όταν έχει περισσότερο vram η nvidia, παίρνει περισσότερο vram. Άρα δεν χρησιμοποιεί 1.5gb vram λιγότερο.

Δεν είπα ότι χρειάζεται 12gb στο 1080p. Και έγινε σημαία τώρα γιατί κάρτες σαν την 3080 10gb που μια χαρά αποδόσεις έχει για 1440p (και όταν βγήκε την λέγανε 4k κάρτα αν θυμάμαι καλά), τώρα με το ζόρι θα τα βγάζει πέρα στα νέα παιχνίδια σε 1440p λόγω τσιγκουνιάς της Nvidia στη vram. Ενώ η 6800xt καλά κρατεί.

Επεξ/σία από John_on_PC
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 ώρες πριν, Tambas91 είπε

ισχύει και εγώ το βλέπω ξεκάθαρα τώρα θα πεταχτεί πάλι ο ακοινώνητος με τον πέτρο και θα αρχίσουν να λένε πάλι τα δικά τους χρονιάρες μέρες :P Screenshot2023-12-30150116.png.988163523ed8e5aaa4279dc73b7e8a2d.png

Μην χρησιμοποιείτε το όνομά μου επί ματαίω...

Εγώ αυτό που έχω να πω είναι ότι συζήτηση για VRAM χρήση/ανάγκη με παράδειγμα όπου η ίδια κάρτα δείχνει την ίδια ή και παραπάνω χρήση σε 1080p από ότι σε 4Κ δεν έχει το παραμικρό νόημα.

Είναι ξεκάθαρο ότι αυτά που βλέπουμε κάθε φορά είναι δέσμευση, την οποία αποφασίζει ο οδηγός και οι βελτιστοποιήσεις του, μπας και δώσει ένα αξιοπρεπές αποτέλεσμα. Το τί ορίζει ο κάθε πράσινος/κόκκινος οδηγός ως "αξιοπρεπές", είναι υπόθεση για να τραβάμε (πάλι) τις τρίχες από διάφορα ευαίσθητα σημεία μας.

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, John_on_PC είπε

Μα αυτό ακριβώς έδειξα. Πως με τα ίδια gb vram, ίδια διαχείριση vram έχουν. Και όταν έχει περισσότερο vram η nvidia, παίρνει περισσότερο vram. Άρα δεν χρησιμοποιεί 1.5gb vram λιγότερο.

Δεν είπα ότι χρειάζεται 12gb στο 1080p. Και έγινε σημαία τώρα γιατί κάρτες σαν την 3080 10gb που μια χαρά αποδόσεις έχει για 1440p (και όταν βγήκε την λέγανε 4k κάρτα αν θυμάμαι καλά), τώρα με το ζόρι θα τα βγάζει πέρα στα νέα παιχνίδια σε 1440p λόγω τσιγκουνιάς της Nvidia στη vram. Ενώ η 6800xt καλά κρατεί.

Στο παραδειγμα σου χρησιμοποιησες την εξαιρεση 4060Ti 16gb που τα εχει και τα κοιταει.
Θα ηταν ενδιαφερον να εδειχνες τη 6700xt με τα "πολλα" 12gb vs τη 4060Ti με τα "λιγα" 8gb για να δουμε αν η μια ειναι ανετη και η αλλη ειναι capαρισμενη και δεν της φτανουν τα 8gb.
Eδω πχ τα 1.5-2gb παραπανω Vram πανε συνεφο
https://www.youtube.com/watch?v=1IWI1z8qz80&ab_channel=NJTech
https://www.youtube.com/watch?v=1w8w-luLN8o&ab_channel=GamesChoices

Σε Mid-High καρτες οπως η 3080 6800xt δεν μπορεις να εχεις την απαιτηση να τα παιζουν ολα δεξια σε top αναλυσεις μετα απο 2-3 χρονια.
Ουτε οι εταιριες εχουν σκοπο να σου βγαζουν καρτες που θα τις κρατας 3-4 χρονια χωρις να ριξεις details ή χωρις να τις πληρωσεις χρυσαφι(6950xt 3090Ti).
Ξερεις οτι αν τη κρατησεις θα ριξεις Details ή σε 2 χρονια θα παρεις την επομενη για να συνεχισεις να εχει ολα δεξια.
Αν η 6800xt σταθηκε λιγο παραπανω ηταν γιατι η 7800xt δεν προσφερε 30-40% παραπανω performance και παρεμενει σχεδον στα ιδια οποτε η 7800xt δεν ηταν Upgrade.
Αν θα δεις 3080 με 4080 η διαφορα ειναι μεγαλη και οποιος ειχε 3080 , η 4080 ηταν Upgrade.
Mπορει σε 3 χρονια ακομα και η 7800xt να μη μπορει να παιξει 1440p Μax Settings Ray Tracing(βλεπε AW2).
To θεμα ειναι τι εκανε οταν βγηκε και οχι μετα απο 3 χρονια γιατι δεν προοριζεται για 3+ χρονια.

 

Screenshot_43.jpg

Επεξ/σία από BlurayMoviesGreece
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...