Προς το περιεχόμενο

GPU Vram και οι επιπτώσεις στα Games.


Od1sseas

Προτεινόμενες αναρτήσεις

1 λεπτό πριν, bonorov είπε

Δεν λεω να βάζανε 20gb που έχει η 7900xt που είναι ο άμεσος ανταγωνιστής αλλά τουλάχιστον ένα 16αρι θα την έκανε sweet spot για το 4k.

Δεν εχεις αδικο αλλα σκεφτομαστε σαν πελατες. Αν σκεφτεις σαν εταιρια μετα δεν θα μπορουσε να πουλησει την 4080 που εινια 300-400 ευρω ακριβοτερη απο 4070ti εκτος αν την εβγαζε με 20gb και οχι με 16. Φαυλος κυκλος ειναι στην τελικη δεν μας βαζουν το χερι στο λαιμο να αγορασουμε για αυτο εχουμε ελευθερη αγορα και μπορουμε να παμε σε καποια με 16gb vram για 4Κ η ακομα και 20 24 που υπαρχουν. Καμια εταιρια δεν θελει να βγαλει το τελειο προιον για καθε αναλυση. Σου λεει 1440p καρτα ειναι η 4070ti παρτε την οσοι θελετε να παιζετε ανετα εκει οσοι θελετε 4Κ πατε στα μεγαλυτερα μοντελα και εφοσον παιζετε με μεγαλυτερο clarity θα βαλετε και το χερι στην τσεπη βαθυτερα ενω καποιος με 1080p max settings θα βολευτει με το 1/4 μιας 4090 και ακομα πιο κατω. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 2,3k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

3 ώρες πριν, bonorov είπε

Μια χαρά θα είναι φίλε μου η κάρτα σε 1080p.

Τώρα αν σε 2-3 κακογραμμένα games χρειαστεί να ρίξεις τα textures στα high δεν χάθηκε ο κόσμος.Δεν σημαίνει ότι η κάρτα είναι outdated. 

Το κυνήγι και της τελευταίας ρύθμισης στα ultra δεν τελειωμό. 

Εγώ τα games πάντως τα απολάμβανα περισσότερο πολυ πολυ παλιοτερα πριν ανακαλυψω τα fps counter. 

Έριχνα τα settings και απολαμβανα το game με όσα fps κι αν έτρεχε. 

Κι εγώ την ίδια άποψη έχω φίλε. Η 2060 έχει επίσης fsr που το υποστηρίζουν πλέον αρκετά παιχνίδια και το οποίο τις δίνει επιπλέον πόντους.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 λεπτά πριν, Arkin είπε

Δεν εχεις αδικο αλλα σκεφτομαστε σαν πελατες. Αν σκεφτεις σαν εταιρια μετα δεν θα μπορουσε να πουλησει την 4080 που εινια 300-400 ευρω ακριβοτερη απο 4070ti εκτος αν την εβγαζε με 20gb και οχι με 16. Φαυλος κυκλος ειναι στην τελικη δεν μας βαζουν το χερι στο λαιμο να αγορασουμε για αυτο εχουμε ελευθερη αγορα και μπορουμε να παμε σε καποια με 16gb vram για 4Κ η ακομα και 20 24 που υπαρχουν. Καμια εταιρια δεν θελει να βγαλει το τελειο προιον για καθε αναλυση. Σου λεει 1440p καρτα ειναι η 4070ti παρτε την οσοι θελετε να παιζετε ανετα εκει οσοι θελετε 4Κ πατε στα μεγαλυτερα μοντελα και εφοσον παιζετε με μεγαλυτερο clarity θα βαλετε και το χερι στην τσεπη βαθυτερα ενω καποιος με 1080p max settings θα βολευτει με το 1/4 μιας 4090 και ακομα πιο κατω. 

Θα σου θυμίσω ένα "τέλειο" προϊόν για την εποχή του.Gtx 970.

Όταν θέλουν οι εταιρείες βγάζουν προιοντα που να είναι costumer friendly. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

8 ώρες πριν, aki είπε

Όση μνήμη και να βάλεις για το TLOU, pc edition, δε φτάνει γιατί το port προσπαθεί να προσπεράσει την έλλειψη dedicated-HW για data-decompression που έχει το PS5 και αξιοποιεί το πρωτότυπο παιχνίδι.

Δεν είναι άμπαλοι οι devs (ίσως λίγο) αλλά selling point του PS5 συγκεκριμένα.

Και θα ρωτήσεις, μα γιατί να το κάνουν έτσι; και θα απαντήσω, καλή ερώτηση.

Με ενα απλο debug mode και boostaran τον 5600x στο θεο τερματισε την καρτα για πλακα και ειχε να δωσει αρκετα ακομα. Ενα ατομο κανει τη δουλεια που δεν μπορει ολοκληρη εταιρια που κανει porting παιχνιδια. Ποσο πιο lazy μπορουν να γινουν? Μετα φταινε τα amd cpu αιντε να δουμε αν δεν δωσουν τιποτα με το σημερινο patch θα βαλω το debug mode να το δοκιμασω και θα αναφερω στα σημεια που εχω 90% usage με 65fps και 70% την καρτα αν θα μου δωσει αυτα που πρεπει για να τερματισει την καρτα. 

 

8 λεπτά πριν, bonorov είπε

Θα σου θυμίσω ένα "τέλειο" προϊόν για την εποχή του.Gtx 970.

Όταν θέλουν οι εταιρείες βγάζουν προιοντα που να είναι costumer friendly. 

Δεν ηταν αυτη με τα 3.5+500mb vram? Σαν να θυμαμαι παραπονα τοτε για αυτο το πραγμα. 8800gt του 2008-2009 ποτε βγηκε θυμαμαι ηταν καρταρα και σε τιμη του λαου 250-300 ευρω και ακουμπαγε 8800gtx των 600 ευρω τοτε και ετρεχε crysis παρα πολυ καλα στις αναλυσεις του τοτε. 

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

46 minutes ago, bonorov said:

Θα σου θυμίσω ένα "τέλειο" προϊόν για την εποχή του.Gtx 970.

Όταν θέλουν οι εταιρείες βγάζουν προιοντα που να είναι costumer friendly. 

Αυτό είναι αστείο ??

39 minutes ago, Arkin said:

 

 

Δεν ηταν αυτη με τα 3.5+500mb vram? 

yeap

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

51 λεπτά πριν, Arkin είπε

Δεν ηταν αυτη με τα 3.5+500mb vram? Σαν να θυμαμαι παραπονα τοτε για αυτο το πραγμα. 8800gt του 2008-2009 ποτε βγηκε θυμαμαι ηταν καρταρα και σε τιμη του λαου 250-300 ευρω και ακουμπαγε 8800gtx των 600 ευρω τοτε και ετρεχε crysis παρα πολυ καλα στις αναλυσεις του τοτε

 

13 λεπτά πριν, Aten-Ra είπε

Αυτό είναι αστείο ??

yeap

 

Ακομα και με τα 3,5+0,5 καρταρα ήταν από την ώρα που η 980 έβγαζε 4gb.Το θέμα ήταν ότι η Nvidia δεν το είχε ξεκαθαρίσει εξ αρχής και ουσιαστικά παραπλανησε τους καταναλωτές.Το ότι ήταν από τις καλυτερες κάρτες ever φαίνεται και από την δημοφιλία-πωλησεις που έκανε. 

Συμφωνώ απόλυτα και για την 8800gt αν και είχε περασει απο τα χέρια μου μόνο outdated δυστυχώς. 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, Arkin είπε

Με ενα απλο debug mode και boostaran τον 5600x στο θεο τερματισε την καρτα για πλακα και ειχε να δωσει αρκετα ακομα. Ενα ατομο κανει τη δουλεια που δεν μπορει ολοκληρη εταιρια που κανει porting παιχνιδια. Ποσο πιο lazy μπορουν να γινουν?

Γουάου.

Τι γκάφα έχουν κάνει οι τύποι;

3πλάσια fps έχει σε κάποια σημεία με το debug fps.

Πρέπει να είναι η μεγαλύτερη πατάτα του αιώνα σε game porting....

  • Like 3
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
5 λεπτά πριν, kkatzos είπε

Γουάου.

Τι γκάφα έχουν κάνει οι τύποι;

3πλάσια fps έχει σε κάποια σημεία με το debug fps.

Πρέπει να είναι η μεγαλύτερη πατάτα του αιώνα σε game porting....

Τα γραφω φιλε μου εδω και μερες απο την πρωτη μερα που επαιξα το παιχνιδι. Δεν φταινε τα amd cpu αλλα ειναι γκασμαδες εκει στην iron galaxy. Μολις βγηκε patch θα το τεσταρω λιγο αργοτερα. Αντε να δουμε. Μια χαρα τελικα και τα amd ουτε πυρηνες θελει το παιχνιδι ουτε τιποτα. Σωστο utilization θελει εχει μαλλιασει η γλωσσα μου να το λεω εδω και μερες.

Καλο αυτο που διαβαζω στο changelog 

Updated texture streaming to reduce CPU usage

https://feedback.naughtydog.com/hc/en-us/articles/14662356357908-The-Last-of-Us-Part-I-v1-0-2-0-Patch-Notes

Επεξ/σία από Arkin
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Στα πρώτα λεπτά αναφέρει ότι οι περισσότεροι devs (που γράφουν πάνω σε UE5 κλπ) έχουν αγανακτήσει με τις κακομοιριασμενες μικρές vram και ζητούσαν -πιεζαν χρόνια να γίνει κάτι με αυτό καθώς θα διευκολύνει τον πονοκέφαλο που προκαλεί κατά τον σχεδιασμό νεότερων και πιο απαιτητικών τίτλων

 

θα φέρει σύντομα άτομο από την Infinity Ward να μιλήσει περί αυτού 

Το σημαντικότερο παρτ του βίντεο είναι αυτό μετά καντε σκιπ κλασσικά παραμύθια "αντεπίθεσης" της κόκκινης λέει.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

14 ώρες πριν, kkatzos είπε

Γουάου.

Τι γκάφα έχουν κάνει οι τύποι;

3πλάσια fps έχει σε κάποια σημεία με το debug fps.

Πρέπει να είναι η μεγαλύτερη πατάτα του αιώνα σε game porting....

Nα είναι fake το video αποκλείεται? Είναι δυνατόν να βγάζει 14 1%lows ο 5600x? Περίεργο μου φαίνεται

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
2 ώρες πριν, Herald είπε

Nα είναι fake το video αποκλείεται? Είναι δυνατόν να βγάζει 14 1%lows ο 5600x? Περίεργο μου φαίνεται

Δεν ειναι fake. Εβαλα και εγω το debug χθες και οντως ειδα πολυ καλυτερη συμπεριφορα με την 1.0.7 εκδοση οποτε δουλευει κανονικα το mod. Σημερα θα περασω την νεα 1.0.2.0 εκδοση και θα ενημερωσω. 

 

 

Εκδοση 1.2.0. Στο παρακατω σημειο μεχρι την 1.0.7 εκδοση ειχα 65fps και η καρτα στο 65-70%. Τωρα η καρτα ειναι στο 83% και τα fps στα 84 με την cpu 84% usage. Στα περισσοτερα σημεια πιανω το cap που εχω στα 97fps. Σιγουρα μπορουν να δωσουν και αλλο περιθωριο στον επεξεργαστη και να δωσει και αλλο boost στην καρτα οποτε εχουμε μελλον ακομα. Jittering δεν εφτιαξαν κλασικα δεν περιμενω πολλα σε αυτο οπως και στο uncharted τους χρηστες ποντικιου τους εχουν τελειως γραμμενου εκει στη naughty dog. Βελτιωσαν παρα πολυ και το loading δεν κανει πανω απο 7-8 δευτερολεπτα στο κυκλακι που γυρναει πριν εκανε το διπλασιο.

The-Last-of-Us-Part-I-Screenshot-2023-04

Επεξ/σία από Arkin
  • Like 4
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

118FPS. Παλι υπαρχει BN η καρτα καθετε αλλα καμια μα καμια σχεση με πριν σε εξωτερικο περιβαλλον να πιασω πανω απο 80-85fps.  The-Last-of-Us-Part-I-Screenshot-2023-04

 

Και εδω υψηλη ποιοτητα στα γραφικα DLSS quality στα 3440x1440 με 105fps. Κατι εκαναν στο χθεσινο patch λοιπον εδωσε τρελο αερα στην cpu. Και ακομα μπορουν και αλλο. Τρεχει ανετοτατα λοιπον με 100fps stable και υψηλα γραφικα με dlss quality. Στα ultra ειμαι σχεδον μονιμα gpu bound στο 99%. 

The-Last-of-Us-Part-I-Screenshot-2023-04

Επεξ/σία από Arkin
  • Like 3
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Μιας και στους 12/13 gen intel το παιχνιδι στελνει ολο το βαρος στους e πυρηνες και οχι στους p να δουμε λιγο το usage και σε amd πως κατανεμεται. Βλεπω ενα ομοιομορφο chart με μια ισορροπiα σε ολους τους πυρηνες/threads. 

Δεν ξερω τι γινεται με την καρτα 125 watt με 99% usage στην παρακατω εικονα. Τι efficiency εχουν?

The-Last-of-Us-Part-I-Screenshot-2023-04

Επεξ/σία από Arkin
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
Στις 7/4/2023 στις 7:55 ΜΜ, Arkin είπε

Με ενα απλο debug mode και boostaran τον 5600x στο θεο τερματισε την καρτα για πλακα και ειχε να δωσει αρκετα ακομα. Ενα ατομο κανει τη δουλεια που δεν μπορει ολοκληρη εταιρια που κανει porting παιχνιδια. Ποσο πιο lazy μπορουν να γινουν? Μετα φταινε τα amd cpu αιντε να δουμε αν δεν δωσουν τιποτα με το σημερινο patch θα βαλω το debug mode να το δοκιμασω και θα αναφερω στα σημεια που εχω 90% usage με 65fps και 70% την καρτα αν θα μου δωσει αυτα που πρεπει για να τερματισει την καρτα. 

 

Δεν ηταν αυτη με τα 3.5+500mb vram? Σαν να θυμαμαι παραπονα τοτε για αυτο το πραγμα. 8800gt του 2008-2009 ποτε βγηκε θυμαμαι ηταν καρταρα και σε τιμη του λαου 250-300 ευρω και ακουμπαγε 8800gtx των 600 ευρω τοτε και ετρεχε crysis παρα πολυ καλα στις αναλυσεις του τοτε. 

Είχαν χωρίσει την vram τότε σε 3.5 γρήγορα σε 500mb λιγότερο γρήγορα. Αλλά στα games δεν έβλεπες καμία επίπτωση. Χωρίς αμφιβολίες η 970 ήταν η πιο vfm gpu ever created. Kαι στην μακρινή δεύτερη θέση για μένα ήταν η 1080ti με τα 11gb, ήσουν άνετα για μια gpu που την έβγαλαν τότε για αυτούς που είχαν μεταβεί σε 1440p αναλύσεις.

Επεξ/σία από Alex21121988
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...