Προς το περιεχόμενο

GPU Vram και οι επιπτώσεις στα Games.


Od1sseas

Προτεινόμενες αναρτήσεις

Μόλις τώρα, Πέτρος είπε

Το Hogwarts AMD sponsored είναι?

Αυτό είναι το μοναδικό παιχνίδι που δεν είναι, αλλά δεν έχει και τέτοια θέματα με την Vram επίσης. Σε 3060ti το παίζω με ολα τερμα (μαζί με rt), μόνο τα textures έχω στο high σε 3440x1440 (dlss q) Καμία σχέση με το TLOU που δεν έχει rt και θέλει 9.5gb vram σε 720p.

 

Αυτό βέβαια δεν απαντάει στο ερώτημα. Το plague tale Που ειναι 6 φορές πιο όμορφο από το forswoken πως την παλεύει με 4.5 gb vram σε 4k ultra?  

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 2,3k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοσ. (επεξεργασμένο)

Η αλήθεια είναι ότι τα nvidia sponsored παιχνίδια ρυθμίζονται έτσι για να παίζουν απροβλημάτιστα (σχεδόν) σε nvidia gpu για ευνόητους λόγους. Άρα δουλεύουν περισσότερο σε vram optimization.

Αυτό δεν σημαίνει απαραίτητα ότι τα amd sponsored σαμποτάρουν επίτηδες τα παιχνίδια τους απλά δεν δίνουν το ίδιο βάρος

Επεξ/σία από chrisde
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
13 λεπτά πριν, chrisde είπε

Η αλήθεια είναι ότι τα nvidia sponsored παιχνίδια ρυθμίζονται έτσι για να παίζουν απροβλημάτιστα (σχεδόν) σε nvidia gpu για ευνόητους λόγους. Άρα δουλεύουν περισσότερο σε vram optimization.

Αυτό δεν σημαίνει απαραίτητα ότι τα amd sponsored σαμποτάρουν επίτηδες τα παιχνίδια τους απλά δεν δίνουν το ίδιο βάρος

Ε αυτό είναι το θεμα. Σου ζητάνε να πληρώσεις εσύ παραπάνω vram για να γλυτώσουν αυτοί (οι devs) χρήματα στο developing. Δεν είναι καν ότι θα έχεις καλύτερα visuals με την παραπανω vram, χειρότερα θα έχεις (πχ.  For spoken). Αλλα εκεί, δωστου video προπαγάνδα απτον Steve, παίζει το κόλπο της amd μια χαρά. Αντί να ξεστραβωθει να βγάλει ανταγωνιστικες κάρτες, τα σπρώχνει στους devs να σαμποτάρουν τις κάρτες των δίπλα. Τι να πω, ότι μπορεί κανείς. 

Τα πρόβληματα αυτά με την Vram δεν θα λυθούν με το να βάλει η nvidia παραπάνω vram στις κάρτες της. Γιατί? Γιατί μετά η amd θα βάλει ακόμα παραπάνω και θα συνεχίσει να τα σπρώχνει στους devs να ζητάνε 800 gb vram. Φαύλος κύκλος είναι. 

Το είδαμε και με την 4070ti, 50% παραπάνω vram έχει από την 3070, δεν την γλύτωσε. 

Επεξ/σία από Herald
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

8 minutes ago, Herald said:

τα σπρώχνει στους devs να σαμποτάρουν τις κάρτες των δίπλα. Τι να πω, ότι μπορεί κανείς. 

Πέστα ρε φίλε χώσε, 16GB έχουν τα PS5/XBOX Series X, δεν φταίει η NVIDIA μετά 8GB στην 3070 αλλά η AMD που πληρώνει devs

  • Like 3
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

10 λεπτά πριν, Herald είπε

Ε αυτό είναι το θεμα. Σου ζητάνε να πληρώσεις εσύ παραπάνω vram για να γλυτώσουν αυτοί (οι devs) χρήματα στο developing. Δεν είναι καν ότι θα έχεις καλύτερα visuals με την παραπανω vram, χειρότερα θα έχεις (πχ.  For spoken). Αλλα εκεί, δωστου video προπαγάνδα απτον Steve, παίζει το κόλπο της amd μια χαρά. Αντί να ξεστραβωθει να βγάλει ανταγωνιστικες κάρτες, τα σπρώχνει στους devs να σαμποτάρουν τις κάρτες των δίπλα. Τι να πω, ότι μπορεί κανείς. 

Τα πρόβληματα αυτά με την Vram δεν θα λυθούν με το να βάλει η nvidia παραπάνω vram στις κάρτες της. Γιατί? Γιατί μετά η amd θα βάλει ακόμα παραπάνω και θα συνεχίσει να τα σπρώχνει στους devs να ζητάνε 800 gb vram. Φαύλος κύκλος είναι. 

Το είδαμε και με την 4070ti, 50% παραπάνω vram έχει από την 3070, δεν την γλύτωσε. 

Δεν συμφωνώ, υπερβάλλεις. Δεν θεωρώ ότι σαμποτάρουν τα παιχνίδια τους, δεν έχει λογική αυτό, να πουλήσουν θέλουν και αν δεν πουλήσουν σε nvidia users που στην τελική είναι και περισσότεροι, σε ποιον θα πουλήσουν; Να τη βράσω την amd χορηγία τότε, ασύμφορη είναι, θα έκανες εσύ τέτοιο deal στη θέση τους; Απλά είναι τα πράγματα: το optimization κοστίζει, σε χρόνο και χρήμα. Η Nvidia τα σπρώχνει, για ιδίον όφελος φυσικά, όχι για να μας κάνει χάρη, η amd στα @@ της.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

16 minutes ago, Herald said:

τα σπρώχνει στους devs να σαμποτάρουν τις κάρτες των δίπλα. Τι να πω, ότι μπορεί κανείς. 

 

 

Να υποθέσω και στο Plague Tale/Hogwarts πληρωμένα από AMD και αυτά εε ??

Plague-Tale-1080p-RT.png

Hogwarts-1080p-RT.png

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, Aten-Ra είπε

Να υποθέσω και στο Plague Tale/Hogwarts πληρωμένα από AMD και αυτά εε ??

Plague-Tale-1080p-RT.png

Hogwarts-1080p-RT.png

Εκλαψα

Βρε άνθρωπε του Θεού άσε το rt στην άκρη. Έχει rt το TLOU?? Με rt πόσο θα πήγαινε, 20 gb σε 720p? 

 

Έλα μαν κουράζεις, ξέρεις ότι έχεις άδικο και ψάχνεις τώρα να θολώσεις τα νερά. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 λεπτά πριν, chrisde είπε

Δεν συμφωνώ, υπερβάλλεις. Δεν θεωρώ ότι σαμποτάρουν τα παιχνίδια τους, δεν έχει λογική αυτό, να πουλήσουν θέλουν και αν δεν πουλήσουν σε nvidia users που στην τελική είναι και περισσότεροι, σε ποιον θα πουλήσουν; Να τη βράσω την amd χορηγία τότε, ασύμφορη είναι, θα έκανες εσύ τέτοιο deal στη θέση τους; Απλά είναι τα πράγματα: το optimization κοστίζει, σε χρόνο και χρήμα. Η Nvidia τα σπρώχνει, για ιδίον όφελος φυσικά, όχι για να μας κάνει χάρη, η amd στα @@ της.

Ωραία δεν το κανουν επίτηδες. Δεν αλλάζει το νόημα όμως. Σου λέει πλήρωσε εσύ vram για να γλυτώσω εγώ τα dev costs. Και τελικά το παιχνίδι και χειρότερο θα είναι στα γραφικά, και broken εντελώς. Πολλά τα παραδείγματα. Ε να τη βράσω τότε τη vram, no ty. 

 

 

1 λεπτό πριν, Aten-Ra είπε

Και εγώ έκλαψα με το RT στην 3070 

Ναι αλλά αυτό που σου έγραψα γαργάρα.. Μετά αναρωτιέσαι γιατί σε κράζουν όλοι. Γιατί είσαι τσακωμενος με τη λογική. Θα πάρω κάρτα με παραπάνω vram για να παίζω forspoken αντί για Plague tale, makes sense δικέ μου. 10gb 720p αντε γειά. 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

4 hours ago, Herald said:

Ναι αλλά αυτό που σου έγραψα γαργάρα.. Μετά αναρωτιέσαι γιατί σε κράζουν όλοι. Γιατί είσαι τσακωμενος με τη λογική. Θα πάρω κάρτα με παραπάνω vram για να παίζω forspoken αντί για Plague tale, makes sense δικέ μου. 10gb 720p αντε γειά. 

Γράφεις για πληρωμές και περιμένεις να σου απαντάω σωστά ??

 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
7 λεπτά πριν, Herald είπε

Ωραία δεν το κανουν επίτηδες. Δεν αλλάζει το νόημα όμως. Σου λέει πλήρωσε εσύ vram για να γλυτώσω εγώ τα dev costs. Και τελικά το παιχνίδι και χειρότερο θα είναι στα γραφικά, και broken εντελώς. Πολλά τα παραδείγματα. Ε να τη βράσω τότε τη vram, no ty. 

 

 

Βράστηνα όσο θες, δεν πρόκειται να αυξηθεί.:P Δεν μου αρέσει η κατάσταση ούτε συμφωνώ με τις πρακτικές της μιας ή της άλλης εταιρείας. Πρέπει όμως να βρεθεί μια λύση προς όφελος του pc gaming. Αφενός μεν να μην τσιγκουνεύεται ο ένας τη vram, εντάξει δεν σου λεω να βάλεις 16gb σε entry level που λέει ο Steve, αλλά ρε γκασμά έλεος βάλε 16gb στην 4070ti και 12 στην 3070, πχ. Από την άλλη οι developers να κάνουν και κάνα optimization στα προιοντα τους ώστε τα κόστη που ζητάνε σε raw power να ανταποκρίνονται τουλάχιστον στα visuals που βλέπουμε και η amd να πιέζει και αυτή προς αυτήν την κατεύθυνση για τα δικά της παιχνίδια.

Επεξ/σία από chrisde
  • Like 5
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 hours ago, Aten-Ra said:

Γράφεις για πληρωμές και περιμένεις να σου απαντάω σωστά ??

 

Εντάξει δεν τους πληρώνει. Αυτό είναι το πρόβλημα σου τώρα? Το ότι όλα αυτά τα games βγαίνουν broken άσχετα με τη vram και δείχνουν και χειρότερα δεν μας απασχολεί? Δοκίμασε το TLOU στον 12100 σου και έλα να συζητήσουμε μετά για την Vram της 3070. Με κλειστά τα ecores έχω unplayable stuttering στον 12900k, να δω σε σένα πως θα παίζει και αν θα σε απασχολεί η vram μετά. 

3 hours ago, chrisde said:

Βράστηνα όσο θες, δεν πρόκειται να αυξηθεί.:P Δεν μου αρέσει η κατάσταση ούτε συμφωνώ με τις πρακτικές της μιας ή της άλλης εταιρείας. Πρέπει όμως να βρεθεί μια λύση προς όφελος του pc gaming. Αφενός μεν να μην τσιγκουνεύεται ο ένας τη vram, εντάξει δεν σου λεω να βάλεις 16gb σε entry level που λέει ο Steve, αλλά ρε γκασμά έλεος βάλε 16gb στην 4070ti και 12 στην 3070, πχ. Από την άλλη οι developers να κάνουν και κάνα optimization στα προιοντα τους ώστε τα κόστη που ζητάνε σε raw power να ανταποκρίνονται τουλάχιστον στα visuals που βλέπουμε και η amd να πιέζει και αυτή προς αυτήν την κατεύθυνση για τα δικά της παιχνίδια.

Μα αντικειμενικά να το δεις τα 8gb της 3070 είναι σχεδόν overkill όταν παίζει το ομορφότερο παιχνίδι της γενιάς σε 4k Ultra και το vram usage είναι στο 50% σχεδόν. Σε 4090 που λες θα απλώσει λόγω vram έπαιζε μεταξύ 4.5-5.5 gb. Αλλά το forspoken και το godfall χρειάζονται vram για να ξεδιπλωσουν τα κάλλη τους. 

Αλλά για τα cpu της amd τσιμουδιά ο Στέφανος. Δεν τεσταρει κάναν 5600x/ 7600x στο TLOU να μας δείξει πως πάει σε σχέση με τα i5 της intel. Τον λούζει κρύος ιδρώτας εκεί. Δεν μας δείχνει τον 5800 3d που ματσαρι και περνάει τον 12900k πως τα πάει στο TLOU. Περίεργο 😁

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

9 λεπτά πριν, Herald είπε

Μα αντικειμενικά να το δεις τα 8gb της 3070 είναι σχεδόν overkill

Ώρες ώρες πραγματικά αναρωτιέμαι αν τα εννοείς αυτά που γράφεις ή τρολάρεις. Τες πα θα απαντήσω σοβαρά. Χρησιμοποιείς σαν μέτρο σύγκρισης ένα παιχνίδι (που για να είμαι ειλικρινής δεν πρόσέξα τι vram usage έχει, αν είναι όντως τόσο χαμηλή όσο λες, θα σε πιστέψω όμως) το οποίο καλό, χρυσό, άγιο, πολύ ωραία γραφικά έχει, ψιλονορμάλ απόδοση άσχετα αν δεν βάλανε fsr support (thanks modders) αλλά μιλάμε για linear παιχνίδι που πηγαίνεις από προκαθορισμένη σε προκαθορισμένη περιοχή aka corridor game. Άμα ήταν open world παιχνίδι, θα είχε τις ίδιες απαιτήσεις πιστεύεις; Να μου λεγες για το RDR2 να πήγαινα πάσο, αλλά το requiem; Και εντάξει μεταξύ μας τώρα, αυτό με τα 8gb της 3070 μην το πεις παραέξω...

  • Like 3
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, Herald είπε

Αυτό είναι το μοναδικό παιχνίδι που δεν είναι, αλλά δεν έχει και τέτοια θέματα με την Vram επίσης. Σε 3060ti το παίζω με ολα τερμα (μαζί με rt), μόνο τα textures έχω στο high σε 3440x1440 (dlss q) Καμία σχέση με το TLOU που δεν έχει rt και θέλει 9.5gb vram σε 720p.

 

Αυτό βέβαια δεν απαντάει στο ερώτημα. Το plague tale Που ειναι 6 φορές πιο όμορφο από το forswoken πως την παλεύει με 4.5 gb vram σε 4k ultra?  

Πώς δεν έχει θέματα με vram? Φορτώνει κ ξεφορτώνει textures κάθε 3-5 δευτερόλεπτα γιατί δεν "χωράνε" όλα! Επειδή δεν καταρρέει?

Ερώτημα δεν υπάρχει, πάρα μόνο τίθεται εκ του πονηρού.

Για κάθε super optimized πανέμορφο υπάρχει και ένα (τουλάχιστον) super σάπιο. Αυτό, BTW, απαντά και στις "απορίες" σου για 6πύρηνους και 3δ vs Intel κλπ...δηλαδή, κάποια παιγνίδια γιατί τα πηγαίνει super/gamio.as ο αμδ και κάποια άλλα ιδρώνει? Εκεί, δεν είναι θέμα δουλειάς που έχει γίνει?

Κάποιοι απαιτούν παραπάνω δύναμη/συγκεκριμένη αρχιτεκτονική στον επεξεργαστή, κάποιοι απαιτούν vram, άλλοι θα απαιτήσουν χαλβά με φράουλες.

Όσο ηλιθιο είναι το μεν, άλλο τόσο είναι και το δε (από τη στιγμή που όντως υπάρχουν πολύ πιο όμορφα παιγνίδια που τρέχουν πολύ καλύτερα κ με λιγότερες απαιτήσεις).

Η unreal τόσα χρόνια που ήταν στα μαχαίρια με τις κόκκινες ήταν "completely normal phenomenon", αλλά η (πάμφθηνη) vram είναι έγκλημα καθοσιώσεως.

  • Like 4
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
34 λεπτά πριν, chrisde είπε

Βράστηνα όσο θες, δεν πρόκειται να αυξηθεί.:P Δεν μου αρέσει η κατάσταση ούτε συμφωνώ με τις πρακτικές της μιας ή της άλλης εταιρείας. Πρέπει όμως να βρεθεί μια λύση προς όφελος του pc gaming. Αφενός μεν να μην τσιγκουνεύεται ο ένας τη vram, εντάξει δεν σου λεω να βάλεις 16gb σε entry level που λέει ο Steve, αλλά ρε γκασμά έλεος βάλε 16gb στην 4070ti και 12 στην 3070, πχ. Από την άλλη οι developers να κάνουν και κάνα optimization στα προιοντα τους ώστε τα κόστη που ζητάνε σε raw power να ανταποκρίνονται τουλάχιστον στα visuals που βλέπουμε και η amd να πιέζει και αυτή προς αυτήν την κατεύθυνση για τα δικά της παιχνίδια.

Συμφορουμίτη, η μόνη λύση προς όφελος του pc gaming σε ότι έχει να κάνει με τις 2 εταιρείες είναι απλά να ρίξουν τις τιμές τους, πράγμα που ειδικά τώρα που έχουμε και πληθωρισμό, δεν φαίνεται να γίνεται.

Η μεν nvidia επειδή πουλάει, δίνει όχι μεγάλη Vram, η δε Amd που παλιότερα είχε σαν μεγαλύτερο της ατού τις χαμηλότερες τιμές, πλέον της έμεινε μόνο η παραπάνω Vram. Η μήπως όχι?

Πως αλλιώς θα σου δικαιολογούσαν την αλλαγή της ονομασίας από 7800xt σε 7900xt?

Εαν η Amd πουλούσε και αυτή όσο η nvidia, και αυτή λιγότερη Vram θα σου έδινε, όπως βλέπουμε και στους επεξεργαστές που πλέον και οι 2 εταιρείες πουλάνε παραπλήσια σε δυνατότητες τσιπάκια αλλά και  οι 2 σε υψηλές τιμές .

Εγώ πάντως ούτε η Intel είδα να έχει τιμές χώμα με τις Arc gpus της. Ανταγωνιστή 3060 έβγαλε, σε τιμή.... 3060.

Επεξ/σία από Fulgore
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...