Προς το περιεχόμενο

Γιατί ο επεξεργαστής έχει περισσότερο bottleneck σε 1080p από ότι σε 1440p?


JohnChol

Προτεινόμενες αναρτήσεις

  • Απαντ. 146
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

3 ώρες πριν, Dr_Pepper είπε

Ρε θα με τρελάνετε τώρα απλά ψάχνετε να βρείτε κάποια λεπτομέρεια (relative perfomance σε 720p σε σχέση με τον 10900κ στα 5,1GHz ότι νάναι) 

κάνει και ο άλλος thank you... 

Οκ και τι μας είπες τώρα με αυτό; 


Το συγκριτικό του techpowerup χρησιμοποιεί τον 3900x (https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/2.html)  άρα 3.4% διαφορά με το συγκριτικό που δείχνει τον 3900x (με ακόμη πιο δυνατή κάρατα 3080) να ειναι 25 FPS πιο κάτω απο τον 3600 με την 3070 στο ίδιο game και ίδιο pci bandwidth 

image.png.73ba3025f7e89d10b83dc5a2e7a0f9af.png

Δηλαδή τι δεν καταλαβαίνετε;;;

Αν υπάρχει μπουκάλι ειναι κοινό και στις 2 περιπτώσεις με τον 3600 να πρέπει να έχει ΛΙΓΟΤΕΡΑ FPS λόγω πιο αργής κάρτας αλλά έχει ΠΕΡΙΣΣΟΤΕΡΑ

Αν δεν υπάρχει μπουκάλι οι δυο επεξεργαστές αποδίδουν το ίδιο καλά (με 3,4% διαφορά μεταξύ τους) και άρα ο 3600 θα έπρεπε να είχε ΛΙΓΟΤΕΡΑ frames απο τον 3900 τόσο γιατί ειναι 3.4% πίσω σαν επεξεργαστής αλλά και επειδή τρέχει 3070 ενώ ο 3900 τρέχει 3080!!

Τι δεν καταλαβένετε;;; 

Επίσης τα "αν" τα έβαλα απλά για να αποδομήσω αυτό το ποστ απο κάθε πλευρά δεν υπάρχει "αν" πάτε και κοιτάξτε το βίντεο και θα δείτε ότι η GPU ειναι στο 99% = δεν τρώει μπουκάλι τέλος. 


Δηλαδή με άλλα λόγια το μόνο που ήθελες να κάνεις ειναι να παρουσιάσεις μια αντιπαράθεση; ότι δηλαδή ΕΙΝΑΙ χρέπι ο 3600 επειδή ειναι 10%(συγγνώμη εννοώ 20% σε 720p  γιατί το ξεψείρισες μέχρι εκει να φανεί μεγαλύτερο νούμερο lol)  πίσω απο τον 10900Κ; αν ειναι τότε ειναι και ο 3900, και εφόσον το συγκριτικό χρησιμοποιεί 3900 άρα τα νούμερα ειναι ισοδύναμα μιας και η διαφορά 3600/3900 ειναι 3,4% 

Ωραία και; όπως βλέπεις απο πάνω δεν αλλάζει κάτι στο θέμα της κουβέντας άρα μόνο έψαξες να βρεις κάτι να πας κόντρα άσχετα με το αν δεν σημαίνει κάτι... μετά λες εγώ τραβάω πράματα απο τα μαλλιά. 


Και εφόσον ο 10900Κ ειναι τόσο καλός επεξεργαστής για να τον βάζεις σαν μέτρο σύγκρισης να δείξεις τον 3600 για χρέπι άρα δεν μπορείς να πεις και τίποτα για τις μετρήσεις του eurogamer που τον χρησιμοποίησε ! Αναγκαστικά δηλαδή βάσει κοινής λογικής: 


Τέσπα δεν θα το συνεχίσω άλλο μπορείτε να πιστεύετε ότι οι μηχανικοί της AMD ειναι ηλίθιοι και ότι οι κατασκευαστές επίσης ηλίθιοι και τσιγκουνεύτηκαν μερικά cents (και δεν τσιγκουνεύονται σε άλλα βλέπω πχ 6500xt με ψύκτρα με heat pipes 2 φαν κτλ όλα αυτά ειναι άνετα 20 δολάρια για να μην πω παραπάνω και αχρείαστα για τα watt της κάρτας... αλλά στα lanes τσιγκουνεύτηκαν) 

Εγώ πιστεύω μιας και έχω δει αρκετές μετρήσεις με native PCIe (και επειδή δεν τους έχω για ηλίθιους στην AMD που δεν σκέφτηκαν ότι ίσως η κάρτα μπει σε PCI 3.0 ) και επειδή η κάρτα δεν ειναι δυνατή για να χρειάζεται κάτι παραπάνω ότι τα χαμηλά αποτελέσματα έχουν να κάνουν με κάποιο μπουκάλι που τρώει όταν πας να χρησιμοποιείς μητρική PCIe 4 με PCIe 4 CPU αλλάζοντας το compatibility του slot σε παλιότερο gen και πως σε native slot δεν έχει πρόβλημα. 

Το techpowerup οταν έτρεξε το τεστ της 3080, μονο η AMD είχε pcie 4.0 cpu, οπότε έβαλε AMD cpu. Αυτό δεν σημαίνει πως ο 3600 δεν ρίχνει μπουκάλι σε μια 3070 σε fhd...

Δεν μας ενδιαφέρει αυτό όμως εδώ. Γιατί; Γιατί και σε 4Κ δεν φαινεται κάποιο latency, που θα υπήρχε αν ισχυε η θεωρία σου

relative-performance_3840-2160.png

Μια εταιρεία όταν βγάζει ενα προϊον με πιο χαμηλή τιμή από τα υφιστάμενα, κοιτάζει να το δομήσει με τέτοιο τρόπο ώστε να μην κανιβαλίσει πωλήσεις από τα ανώτερα - ακριβότερα μοντέλα αλλά την ίδια ώρα να πάρει μερίδιο αγοράς από τον ανταγωνισμό.
Όταν βγήκε η κάρτα, ο ανταγωνισμός σε αυτό το price range ειχε την 1050 ti (ακριβότερη κιολας) η οποία τρώει ξύλο ακόμη και σε pcie 3.0 από την 6500 ΧΤ.
Έχει να κάνει με product segmentation, οχι με "ηλίθιους μηχανικούς"

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
Στις 6/7/2022 στις 9:05 ΜΜ, hln3 είπε

Έχει να κάνει με product segmentation, οχι με "ηλίθιους μηχανικούς"

Πάλι τα ίδια τι product segmentation;

Ακόμη και όταν ειναι PCI 4.0 (υποθέτοντας χάρη παραδείγματος μόνο πως ειναι γρηγορότερη σε PCI 4.0)
Eίναι πιο γρήγορη απο την 6600;  ΌΧΙ


είναι πιο αργή απο την 6400;  OXI


Αυτό ειναι το product segmentation δεν χρειάζεται να την κουτσουρέψει δηλαδή για να μην "φάει" πωλήσεις απο κάποιο άλλο μοντέλο. 

"Λόγος" (τουλάχιστον για συνωμοσιολόγους) θα υπήρχε αν ήταν πολύ κοντά στην 6600 οπότε θα έπρεπε να την κόβανε σε κάτι για να είναι πιο δελεαστική η αγορά 6600, η 6600 είναι 100 ευρώ πιο ακριβή και έχει καλύτερα FPS +codec η 6400 είναι ~30 ευρώ πιο φθηνή αλλά έχει λιγότερα FPS. 

Απο εκει και πέρα για να τελειώνει η ιστορία (που σίγουρα δεν θα τελειώσει αλλά δεν  προσωπικά πιστεύω είναι χάσιμο χρόνο η όποια επιπλέον ενασχόληση απο πλευράς μου) 


Μπήκα στον κόπο να μετρήσω το latency και μάλιστα μπορεί ο οποιοσδήποτε να κάνει το ίδιο τρέχοντας αυτό το εργαλείο:
https://github.com/andre-richter/pcie-lat

Πρόσεξε την λεπτομέρεια ότι στο δικό του ιστόγραμμα πήρε λίγο πιο κάτω απο100 χιλιάδες μετρήσεις ενώ εγώ (για ακόμη καλύτερη εικόνα πήρα δέκα εκατομμύρια μετρήσεις! 



X570 μητρική με rtx 3070

PCIe 4.0 


PCIe 3.0
 



Όπως βλέπεις τόσο το max latency όσο και το min latency αυξήθηκε!

Όχι μόνο αυτό αλλά και οι ενδιάμεσες τιμές ειναι υψηλότερες και πυκνότερες προς τα αριστερά (αριστερά ειναι τα "στοιβαγμένα" τα πακέτα (μπλέ) με μικρότερο latency ) 

Όταν βλέπεις πιο χοντρές γραμμές πάει να πεί ότι πολλά απο τα (δεκα εκατομμύρια) πακέτα είχαν latency κοντά στον αριθμό που ειναι κάτω (άξονας X) 

Τέρμα δεξιά που δεν φαίνεται να έχει κάτι υπάρχει απλά ειναι λίγα τα πακέτα (σε σχέση με τον συνολικό αριθμό των δεκα εκατομμυρίων) που δεν τα κάνει να φαίνονται υπάρχουν όμως γιαυτό το ιστόγραμμα τερματίζει στα 120K για PCIe 3και στα 75Κ (για PCIe 4)  φαίνεται αυτό εξάλλου και στο max value που δείχνει η κονσόλα στο κάθε βίντεο. 
image.png.8abfbd0ee2ba9959727f15994c3ee8cd.png

8v8pF2K.png

 

h0kKmvD.png

Επεξ/σία από Dr_Pepper
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

29 λεπτά πριν, Dr_Pepper είπε

Πάλι τα ίδια τι product segmentation;

Ακόμη και όταν ειναι PCI 4.0 (υποθέτοντας χάρη παραδείγματος μόνο πως ειναι γρηγορότερη σε PCI 4.0)
Eίναι πιο γρήγορη απο την 6600;  ΌΧΙ


είναι πιο αργή απο την 6400;  OXI


Αυτό ειναι το product segmentation δεν χρειάζεται να την κουτσουρέψει δηλαδή για να μην "φάει" πωλήσεις απο κάποιο άλλο μοντέλο. 

"Λόγος" (τουλάχιστον για συνωμοσιολόγους) θα υπήρχε αν ήταν πολύ κοντά στην 6600 οπότε θα έπρεπε να την κόβανε σε κάτι για να είναι πιο δελεαστική η αγορά 6600, η 6600 είναι 100 ευρώ πιο ακριβή και έχει καλύτερα FPS +codec η 6400 είναι ~30 ευρώ πιο φθηνή αλλά έχει λιγότερα FPS. 

Απο εκει και πέρα για να τελειώνει η ιστορία (που σίγουρα δεν θα τελειώσει αλλά δεν  προσωπικά πιστεύω είναι χάσιμο χρόνο η όποια επιπλέον ενασχόληση απο πλευράς μου) 


Μπήκα στον κόπο να μετρήσω το latency και μάλιστα μπορεί ο οποιοσδήποτε να κάνει το ίδιο τρέχοντας αυτό το εργαλείο:
https://github.com/andre-richter/pcie-lat

Πρόσεξε την λεπτομέρεια ότι στο δικό του ιστόγραμμα πήρε λίγο πιο κάτω απο100 χιλιάδες μετρήσεις ενώ εγώ (για ακόμη καλύτερη εικόνα πήρα δέκα εκατομμύρια μετρήσεις! 



X570 μητρική με rtx 3070

PCIe 4.0 


PCIe 3.0
 



Όπως βλέπεις τόσο το max latency όσο και το min latency αυξήθηκε!

Όχι μόνο αυτό αλλά και οι ενδιάμεσες τιμές ειναι υψηλότερες και πυκνότερες προς τα αριστερά (αριστερά ειναι τα "στοιβαγμένα" τα πακέτα (μπλέ) με μικρότερο latency ) 

Όταν βλέπεις πιο χοντρές γραμμές πάει να πεί ότι πολλά απο τα (δεκα εκατομμύρια) πακέτα είχαν latency κοντά στον αριθμό που ειναι κάτω (άξονας X) 

Τέρμα δεξιά που δεν φαίνεται να έχει κάτι υπάρχει απλά ειναι λίγα τα πακέτα (σε σχέση με τον συνολικό αριθμό των δεκα εκατομμυρίων) που δεν τα κάνει να φαίνονται υπάρχουν όμως γιαυτό το ιστόγραμμα τερματίζει στα 120K για PCIe 3και στα 75Κ (για PCIe 4)  φαίνεται αυτό εξάλλου και στο max value που δείχνει η κονσόλα στο κάθε βίντεο. 
image.png.8abfbd0ee2ba9959727f15994c3ee8cd.png

8v8pF2K.png

 

h0kKmvD.png

Θενξ για τα διαγράμματα. Για μένα πάλι το ότι υπάρχει διαφορά latency όμως δεν σημαίνει απαραίτητα πως εκεί οφείλονται οι διαφορές. Για μένα είναι ο συνδυασμός 4gb vram με 4 pcie lanes που κάνουν την "ζημιά". Γιατί τα 4 gb vram θεωρώ πως αυξάνουν την ανάγκη του συστήματος να σπρώξει πράγμα που δεν χωράει στην vram στο υπόλοιπο σύστημα και τα 4 lanes το περιορίζουν. Και γι'αυτό και στην 3080 π.χ δεν βλέπεις τέτοιες μεγάλες μεταβολές με παλαιότερα pcie lanes.

Για το product segmentation πρέπει να δεις και άλλα πράγματα, που υπήρχαν όταν σχεδιάστηκε το release - η 6600 ήταν κατάλληλη για mining ενώ η 6500 ΧΤ όχι, άρα δεν μπορείς να μετρήσεις το segmentation μόνο με όρους fps. Τέλος ένα στοιχείο που μας λείπει, είναι το πόσο θα απέδιδε η 6500 ΧΤ με 8 lanes σε pcie 4.0 - αν απέδιδε π.χ 5% καλύτερα μικραίνει και άλλο η διαφορά με την 6600 ΧΤ

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 λεπτά πριν, hln3 είπε

Θενξ για τα διαγράμματα. Για μένα πάλι το ότι υπάρχει διαφορά latency όμως δεν σημαίνει απαραίτητα πως εκεί οφείλονται οι διαφορές. Για μένα είναι ο συνδυασμός 4gb vram με 4 pcie lanes που κάνουν την "ζημιά". Γιατί τα 4 gb vram θεωρώ πως αυξάνουν την ανάγκη του συστήματος να σπρώξει πράγμα που δεν χωράει στην vram στο υπόλοιπο σύστημα και τα 4 lanes το περιορίζουν. Και γι'αυτό και στην 3080 π.χ δεν βλέπεις τέτοιες μεγάλες μεταβολές με παλαιότερα pcie lanes.

Για το product segmentation πρέπει να δεις και άλλα πράγματα, που υπήρχαν όταν σχεδιάστηκε το release - η 6600 ήταν κατάλληλη για mining ενώ η 6500 ΧΤ όχι, άρα δεν μπορείς να μετρήσεις το segmentation μόνο με όρους fps. Τέλος ένα στοιχείο που μας λείπει, είναι το πόσο θα απέδιδε η 6500 ΧΤ με 8 lanes σε pcie 4.0 - αν απέδιδε π.χ 5% καλύτερα μικραίνει και άλλο η διαφορά με την 6600 ΧΤ

ΜΑ ΔΕΝ ΥΠΑΡΧΕΙ ΔΙΑΦΟΡΑ ΟΤΑΝ ΤΡΕΧΕΙ ΣΕ NATIVE ΣΥΣΤΗΜΑ 

https://www.eurogamer.net/digitalfoundry-2022-amd-radeon-rx-6500-xt-review?page=6

Σε περίπτωση που ειναι δύσκολη η κατανόηση του άρθρου το βάζω σε βίντεο. 

10900K(PCIe 3) vs 11900K(PCIe 4)

και τα 2 με 6500xt 

Διαφορά υπάρχει μόνο σε 1 game και αυτή 5FPS... και εγώ ακόμη και αυτή την αποδίδω στο ότι ο 11900Κ είναι λίγο καλύτερη CPU 

Σε όλα τα άλλα τόσο σε 1080p όσο σε 1440p ειναι το ίδιο 

+ έχει ένα σωρό άλλα βίντεο 

+ τα βίντεο που έβαλα εγώ 

+ ότι δεν υπάρχει λόγος 2 τσιπάκια ram των 2 giga έχει η κάρτα και η CPU τα μισά cores απο μια 6600 (που και αυτή σιγά την κάρτα) δεν έχει ανάγκη απο μεγάλο bandwidth δηλαδή

Μόνες μετρήσεις που έχω δει να δείχνουν μια διαφορά ειναι αυτές που τρέχουν απο το ίδιο mobo αλλάζοντας το bios setting για το slot. 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

4 ώρες πριν, Dr_Pepper είπε

ΜΑ ΔΕΝ ΥΠΑΡΧΕΙ ΔΙΑΦΟΡΑ ΟΤΑΝ ΤΡΕΧΕΙ ΣΕ NATIVE ΣΥΣΤΗΜΑ 

https://www.eurogamer.net/digitalfoundry-2022-amd-radeon-rx-6500-xt-review?page=6

Σε περίπτωση που ειναι δύσκολη η κατανόηση του άρθρου το βάζω σε βίντεο. 

10900K(PCIe 3) vs 11900K(PCIe 4)

και τα 2 με 6500xt 

Διαφορά υπάρχει μόνο σε 1 game και αυτή 5FPS... και εγώ ακόμη και αυτή την αποδίδω στο ότι ο 11900Κ είναι λίγο καλύτερη CPU 

Σε όλα τα άλλα τόσο σε 1080p όσο σε 1440p ειναι το ίδιο 

+ έχει ένα σωρό άλλα βίντεο 

+ τα βίντεο που έβαλα εγώ 

+ ότι δεν υπάρχει λόγος 2 τσιπάκια ram των 2 giga έχει η κάρτα και η CPU τα μισά cores απο μια 6600 (που και αυτή σιγά την κάρτα) δεν έχει ανάγκη απο μεγάλο bandwidth δηλαδή

Μόνες μετρήσεις που έχω δει να δείχνουν μια διαφορά ειναι αυτές που τρέχουν απο το ίδιο mobo αλλάζοντας το bios setting για το slot. 

 

Ρίχνει μπουκάλι ο 10900k στην 6500xt? :P 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

9 λεπτά πριν, Herald είπε

Ρίχνει μπουκάλι ο 10900k στην 6500xt? :P 

Ρίχνει μπουκάλι ο 11900Κ(ή ο 12700Κ) στην 3070 επειδή με τον 12900Κ έχεις λίγα FPS παραπάνω; 

Δεν ξέρετε μερικοί μου φαίνεται τι σημαίνει μπουκάλι το εξήγησα πιο πίσω. 
 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, Dr_Pepper είπε

Ρίχνει μπουκάλι ο 11900Κ(ή ο 12700Κ) στην 3070 επειδή με τον 12900Κ έχεις λίγα FPS παραπάνω; 

Δεν ξέρετε μερικοί μου φαίνεται τι σημαίνει μπουκάλι το εξήγησα πιο πίσω. 
 

 

Σε 1080p πιθανόν ναι να ρίχνει, άλλωστε η 3070 είναι ουσιαστικά  μια 2080ti. Με την 6500xt όμως δεν


CPU μπουκάλα είναι όταν αλλάζεις CPU και βγάζεις περισσότερα fps ;) 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 λεπτά πριν, Herald είπε

Σε 1080p πιθανόν ναι να ρίχνει, άλλωστε η 3070 είναι ουσιαστικά  μια 2080ti. Με την 6500xt όμως δεν


CPU μπουκάλα είναι όταν αλλάζεις CPU και βγάζεις περισσότερα fps ;) 

957679111___________L.gif.0407221dad884cdddbba91670222efcf.gif

Δηλαδή ο με μια VEGA 64 ο 12900Κ της δίνει μπουκάλι επειδή όταν θα βγεί ο rocketlake "13900Κ" θα έχεις λιγα FPS παραπάνω. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

10 λεπτά πριν, Dr_Pepper είπε

957679111___________L.gif.0407221dad884cdddbba91670222efcf.gif

Δηλαδή ο με μια VEGA 64 ο 12900Κ της δίνει μπουκάλι επειδή όταν θα βγεί ο rocketlake "13900Κ" θα έχεις λιγα FPS παραπάνω. 

Δεν θα εχει καθόλου fps παραπανω. Για ποιο λογο να βγαζει παραπανω fps μια καρτα με αλλαγη επεξεργαστή? 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, Dr_Pepper είπε

Ελαμ ντε 

Χρήστος Πρίγγας on Twitter: "@Loukas_7 Άσσος ημίχρονο - διπλό τελικό και  άσε Νοτοπούλου Μυλόπουλο με την απορία "πωτς γκένεν αυτό"  https://t.co/2xYN92ElkF" / Twitter

Ε γιατι δεν μου απαντας. Αμα αλλαξεις cpu και ξαφνικά βγαζεις παραπάνω fps, δεν ειναι αυτονοητο οτι σε εκοβε το cpu? 😂

Ο ορισμος του cpu bottleneck 😊

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 λεπτά πριν, Herald είπε

Ε γιατι δεν μου απαντας. Αμα αλλαξεις cpu και ξαφνικά βγαζεις παραπάνω fps, δεν ειναι αυτονοητο οτι σε εκοβε το cpu? 😂

Ο ορισμος του cpu bottleneck 😊

Γιατί δεν γνωρίζεις για τι πράμα μιλάς (που δεν ειναι κακό όσο ζει κανείς μπορεί να μάθει και εγώ έχω να μάθω πολλά ακόμη)

Αλλά απο την άλλη είσαι είρωνας/τρολλ και υπερόπτης και δεν με προδιαθέτει να σε βοηθάω κάτι τέτοιο. 

Θα δεις λιγα παραπάνω FPS για τον ίδιο λόγο που θα δείς λίγα παραπάνω FPS με μια VEGA 64 (ή όποια παλιά κάρτα, θέλω παλιά στο παράδειγμα για να δώσω και δεύτερη λογική οπτική ότι δεν γίνεται ένας αρκετά πιο σύγχρονος επεξεργαστής να δίνει μπουκάλι σε αρκετά προγενέστερο μοντέλο κάρτας γραφικών) ακόμη και με τον ίδιο επεξεργαστή αν τον κάνεις OC (ουτε καν χρειάζεται να περιμένεις για την νέα γενιά που θα έρθει) 

Τώρα πάρε μια μικρή κάρτα όποια έχεις πχ 1660 κτλ παίξει ένα παιχνίδι (κατα προτίμηση σάπιο παλιό ή απλό πχ counter) με τον 12900κ που έχεις και όλα τα core στα 4,9GHz καρφωτά παίξε το ίδιο παιχνίδι ίδιες ρυθμίσει αλλά βάλε τώρα τα core στα 5,1GHz καρφωτά θα δεις ενα μικρό bump στα FPS. Σίγουρα δεν ειναι γιατί ο 12900Κ δίνει μπουκάλι στα 4,9GHz 


Και αυτό πολύ απλά γιατί η κάρτα γραφικών μπορεί να δίνει το σημαντικότερο "boost" σε ένα παιχνίδι αλλά ένα παιχνίδι ο κώδικάς του/game engine ΔΕΝ ΕΞΑΡΤΑΤΑΙ ΜΟΝΟ ΑΠΟ ΤΗΝ ΚΑΡΤΑ ΓΡΑΦΗΚΩΝ δηλαδή χρησιμοποιεί και τα άλλα υποσυστήματα του PC για διάφορους λόγους (πχ να υπολογίσει τις θέσεις των bot σε ένα first person shooter κτλ) 

Όσο καλύτερος ένας επεξεργαστής τόσο καλύτερο IPC έχει (και ενδεχομένως και μεγαλύτερα clocks/hz που δεν ειναι το ίδιο με το IPC αλλά βγαίνουμε εκτός θέματος ψάξε στα ποστ μου κάπου το έχω εξηγήσει και αυτό) 

και άρα τόσο πιο γρήγορα γίνονται οι άλλες εργασίες που έχει να κάνει ο κώδικας του game/game engine  πράγμα που αυξάνει FPS σε αυτό το παιχνίδι.


Πάει αυτό. 

Τώρα ποιος ειναι ο ορισμός που bottleneck απο ένα Χ εξάρτημα (το έχω ήδη γράψει και γιαυτό δεν με προδιαθέτει επειδή εκτός ότι ειρωνεύεσαι δεν διαβάζεις κιόλας ποστ σε συζήτηση που ειρωνεύεσαι !  αλλά τεσπα το ξαναγράφω για όποιον μπει τώρα στο νήμα και άρχισε να διαβάζει απο αυτό το ποστ) στην κάρτα γραφικών υπο ιδανικές συνθήκες ειναι όταν η κάρτα γραφικών (η GPU της) δεν δουλεύει στο 100% εξαιτίας του εξαρτήματος αυτού, πότε δουλεύει μια κάρτα στο 100%? όταν ο μετρητής χρήσης της GPU που δίνουν API σαν το  DirectX ή Vulkan κτλ (και που μπορείς να δεις είτε χρησιμοποιώντας κάποιο console command ή με προγράμματα όπως το MSI afterburner) δείχνουν πως η GPU είναι στο 100%. 

Αν λοιπόν δεν ειναι στο 100% και ξέρουμε οτι ευθύνεται το Χ εξάρτημα του υπολογιστή για αυτό (πχ CPU ή RAM ) τότε λέμε ότι το Χ εξάρτημα δίνει μπουκάλι στην κάρτα. 


Επειδή δεν ζούμε σε τέλειο κόσμο και υπάρχουν πολλές μεταβλητές στο "παιχνίδι" (εδώ η λέξη παιχνίδι έχει μεταφορική έννοια)  πχ η game engine δεν ειναι τέλεια και εκ της φύσεως της δεν μπορεί να αξιοποιήσει τους πόρους στο 100% ή εκ των πραγμάτων μια συγκεκριμένη σκηνή /χάρτης ή εχει εσωτερικό frame cap η engine όπως στο GTAV  κτλ δεν ειναι ιδιαίτερα απαιτητικός και δεν χρειάζεται να δουλέψει στο 100% το hardware κτλ κτλ 

Πρακτικά bottleneck έχεις απο ένα Χ εξάρτημα όταν η κάρτα κατα μέσο όρο ειναι απο 90-95% και κάτω +-5% ανάλογα ρυθμίσεις windows gamenegine, "χάρτης"/"σημείο" κτλ. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
3 λεπτά πριν, Dr_Pepper είπε

Γιατί δεν γνωρίζεις για τι πράμα μιλάς (που δεν ειναι κακό όσο ζει κανείς μπορεί να μάθει και εγώ έχω να μάθω πολλά ακόμη)

Αλλά απο την άλλη είσαι είρωνας/τρολλ και υπερόπτης και δεν με προδιαθέτει να σε βοηθάω κάτι τέτοιο. 

Θα δεις λιγα παραπάνω FPS για τον ίδιο λόγο που θα δείς λίγα παραπάνω FPS με μια VEGA 64 (ή όποια παλιά κάρτα, θέλω παλιά στο παράδειγμα για να δώσω και δεύτερη λογική οπτική ότι δεν γίνεται ένας αρκετά πιο σύγχρονος επεξεργαστής να δίνει μπουκάλι σε αρκετά προγενέστερο μοντέλο κάρτας γραφικών) ακόμη και με τον ίδιο επεξεργαστή αν τον κάνεις OC (ουτε καν χρειάζεται να περιμένεις για την νέα γενιά που θα έρθει) 

Τώρα πάρε μια μικρή κάρτα όποια έχεις πχ 1660 κτλ παίξει ένα παιχνίδι (κατα προτίμηση σάπιο παλιό ή απλό πχ counter) με τον 12900κ που έχεις και όλα τα core στα 4,9GHz καρφωτά παίξε το ίδιο παιχνίδι ίδιες ρυθμίσει αλλά βάλε τώρα τα core στα 5,1GHz καρφωτά θα δεις ενα μικρό bump στα FPS. Σίγουρα δεν ειναι γιατί ο 12900Κ δίνει μπουκάλι στα 4,9GHz 


Και αυτό πολύ απλά γιατί η κάρτα γραφικών μπορεί να δίνει το σημαντικότερο "boost" σε ένα παιχνίδι αλλά ένα παιχνίδι ο κώδικάς του/game engine ΔΕΝ ΕΞΑΡΤΑΤΑΙ ΜΟΝΟ ΑΠΟ ΤΗΝ ΚΑΡΤΑ ΓΡΑΦΗΚΩΝ δηλαδή χρησιμοποιεί και τα άλλα υποσυστήματα του PC για διάφορους λόγους (πχ να υπολογίσει τις θέσεις των bot σε ένα first person shooter κτλ) 

Όσο καλύτερος ένας επεξεργαστής τόσο καλύτερο IPC έχει (και ενδεχομένως και μεγαλύτερα clocks/hz που δεν ειναι το ίδιο με το IPC αλλά βγαίνουμε εκτός θέματος ψάξε στα ποστ μου κάπου το έχω εξηγήσει και αυτό) 

και άρα τόσο πιο γρήγορα γίνονται οι άλλες εργασίες που έχει να κάνει ο κώδικας του game/game engine  πράγμα που αυξάνει FPS σε αυτό το παιχνίδι.


Πάει αυτό. 

Τώρα ποιος ειναι ο ορισμός που bottleneck απο ένα Χ εξάρτημα (το έχω ήδη γράψει και γιαυτό δεν με προδιαθέτει επειδή εκτός ότι ειρωνεύεσαι δεν διαβάζεις κιόλας ποστ σε συζήτηση που ειρωνεύεσαι !  αλλά τεσπα το ξαναγράφω για όποιον μπει τώρα στο νήμα και άρχισε να διαβάζει απο αυτό το ποστ) στην κάρτα γραφικών υπο ιδανικές συνθήκες ειναι όταν η κάρτα γραφικών (η GPU της) δεν δουλεύει στο 100% εξαιτίας του εξαρτήματος αυτού, πότε δουλεύει μια κάρτα στο 100%? όταν ο μετρητής χρήσης της GPU που δίνουν API σαν το  DirectX ή Vulkan κτλ (και που μπορείς να δεις είτε χρησιμοποιώντας κάποιο console command ή με προγράμματα όπως το MSI afterburner) δείχνουν πως η GPU είναι στο 100%. 

Αν λοιπόν δεν ειναι στο 100% και ξέρουμε οτι ευθύνεται το Χ εξάρτημα του υπολογιστή για αυτό (πχ CPU ή RAM ) τότε λέμε ότι το Χ εξάρτημα δίνει μπουκάλι στην κάρτα. 


Επειδή δεν ζούμε σε τέλειο κόσμο και υπάρχουν πολλές μεταβλητές στο "παιχνίδι" (εδώ η λέξη παιχνίδι έχει μεταφορική έννοια)  πχ η game engine δεν ειναι τέλεια και εκ της φύσεως της δεν μπορεί να αξιοποιήσει τους πόρους στο 100% ή εκ των πραγμάτων μια συγκεκριμένη σκηνή /χάρτης ή εχει εσωτερικό frame cap η engine όπως στο GTAV  κτλ δεν ειναι ιδιαίτερα απαιτητικός και δεν χρειάζεται να δουλέψει στο 100% το hardware κτλ κτλ 

Πρακτικά bottleneck έχεις απο ένα Χ εξάρτημα όταν η κάρτα κατα μέσο όρο ειναι απο 90-95% και κάτω +-5% ανάλογα ρυθμίσεις windows gamenegine, "χάρτης"/"σημείο" κτλ. 

Μα δεν θα δεις καλυτερες επιδοσεις αυτο ειναι δική σου θεωρια. Οσο και να κλοκαρω τον 12900k, με μια 1060 τα ιδια fps θα εχω.

Btw στο βιντεο που έβαλες παραπάνω πχ στο Cyberpunk εχει ξεκάθαρο μπουκάλι η 3070 με τον 11900 αφού πέφτει στο 70% περίπου 😂

Επεξ/σία από Herald
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 λεπτά πριν, Herald είπε

Μα δεν θα δεις καλυτερες επιδοσεις αυτο ειναι δική σου θεωρια. Οσο και να κλοκαρω τον 12900k, με μια 1060 τα ιδια fps θα εχω. 

Δεν ειναι δική μου θεωρεία αν σου φαίνεται νέο αυτό τότε καλωσήρθες στον πλανήτη γη. 

Πχ με την λογική σου ο 12900KS δίνει μπουκάλι στην 3080 ti και ο 5800x3D (που γενικά ειναι πιο αργός επεξεργαστής) δεν δίνει μπουκάλι στην GPU επειδή στο PUBG και στην dota έχει περισσότερα FPS

Ενώ αμέσως μετα ο 5800χ3δ δίνει μπουκάλι και ο 12900KS δεν δίνει γιατί έχει στο lol και overwatch καλύτερα FPS  



Μπορεί να δυσκολεύεσαι να το καταλάβεις αλλά δεν έχει λογική αυτός ο συλλογισμός. Μια CPU ή δίνει μπουκάλι ή δεν δίνει δεν γινεται μια να δίνει μια να μην δίνει... και μάλιστα σε σύγχρονες της κάρτες ή σε παλιότερες! 
Εσύ μάλλον όταν λες "δινει μπουκάλι" εννοείς ότι έχει λιγότερα FPS σε σύγκριση με μια άλλη αλλά η έννοια του bottleneck ειναι διαφορετική πιο συγκεκριμένα όπως την εξήγησα πιο πάνω. 
 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης
Αυτό το θέμα είναι πλέον κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...