Προς το περιεχόμενο

bottleneck CPU vs GPU by tomshardware


pcos

Προτεινόμενες αναρτήσεις

Δημοσ.
Φυσικά και είναι γιατί η επιφάνεια της οθόνης είναι πάρα πολύ μεγάλη σε σχέση με την ανάλυση. Εσύ θεωρείς ότι είναι τυχαίο ότι οι PC οθόνες με 19χ0 ανάλυση δεν ξεπερνούν τις 26"; Από τις 26 μέχρι τις 32 και πόσο μάλλον μέχρι τις 40" η διαφορά είναι τεράστια. Αν μέτραγε μόνο το μέγεθος της οθόνης δεν θα το συζητάγαμε καν.

Μα φυσικά και η οθόνη του υπολογιστή είναι πιο καλή!

Αλλά δυσκολεύομαι να καταλάβω πως γίνεται να μην μπορείς να παίξεις παιχνίδια στην Full HD TV (40"+) όταν κάποιοι θα έκανα και φίφες για να μπορούν να έχουν ένα τέτοιο set-άρισμα. Και πραγματικά μιλάω από απόσταση 1-2 μέτρων από τη TV της υπογραφής μου, παίζω όλα τα παιχνίδια τέλεια! Όχι μόνο χωρίς καμιά ενόχληση, αλλά με πολύ μεγάλη απόλαυση.

Πέραν ότι οποιοδήποτε ψηφιακό μέσο πλέον περνάει σε HD αναλύσεις οι κατασκευαστές τηλεοράσεων έχουν ένα επιπλέον λόγο να τις υποστηρίξουν για τις κονσόλες. Μπορεί φυσικά ο οποιοσδήποτε θέλει να συνδέσει και το PC του, αλλά οι PC oθόνες παραμένουν οι ενδεδειγμένη λύση.

Μπράβο, αν σε ενοχλεί το PC στην TV, το PS3 θα πρέπει να σου φέρνει επιληψία με το Alias που έχει. Εμένα για παράδειγμα με ενοχλεί στα περισσότερα παιχνίδια του PS3!

Αν οι TVs ήταν καλύτερες από τα monitors, τότε θα πετάγαμε όλοι τα monitors και θα πουλάγανε μόνο TV!

Οσες φορές έτυχε να παραβρεθώ στο παρελθόν σε συγκεντρώσεις gamers οι πιτσιρικάδες με τα πιο ταπεινά συστήματα ήταν εκείνοι οι οποίοι ήταν οι πιο ταλαντούχοι.

Εγώ λόγω ηλικίας αν θες (όχι ότι μόνο οι πιτσικρικάδες παίζουν) συναναστρέφομαι περισσότερο με gamers. Δεν μπορείς να φανταστείς πόσο noob-ας είμαι μπροστά τους και έχουν συστήματα για κλοτσιές. Ένας που ξέρω έχει μία GTX260!

Αυτό συμβαίνει επειδή είμαι 50-50%. Μισός Gamer, μισός benchas.

Στο Pro τους σκίζω πάντως!

Kαι τι το συνταραχτικό άλλαξε όσων αφορά το gameplay σε αυτά σε σχέση με το παρελθόν; ΄Εχει δίκιο όταν εννοεί ότι το gameplay στα σημερινά παιχνίδια είναι κατά βάση άλλαξε ο Μανωλιός και έβαλε τα ρούχα του αλλιώς (όπου τα ρούχα είναι η ποιότητα των γραφικών).

Δεν έκανα σύγκριση με το παρελθόν ήταν ας πούμε μία απάντηση για αυτούς που κράζουν τις κονσόλες για τα γραφικά και γενικότερα το Console gaming με ότι περιλαμβάνει αυτό (gameplay, αντοχή στο χρόνο, κλπ).

Υπάρχουν παιχνίδια τα οποία είναι πολύ καλά ακόμα και σε γραφικά ακόμα και για έναν PC Gamer.

Για bench freak ποτέ δεν θα είναι καλά, αφού πάντα θα συγκρίνει τη κονσόλα με το PC του...

 

 

Για να βάλω λίγο το θέμα OnTopic...

Πολύ ενδιαφέρουσα η τεχνική για το "aliazing", αλλά υποθέτω ότι χρησιμοποιείται από PC μόνο λόγω επεξεργαστικής ισχύς?

Η ερώτηση μου είναι:

Ποιο βαριά επεξεργασία είναι να παίζεις ένα παιχνίδι σε ανάλυση 1680x... με 16xAA/16xAF ή σε 2988χ... με 1xAA/16xAF?

Με λίγα λόγια τα φίλτρα ή η ανάλυση είναι το πιο "βαρύ" κομμάτι για το "στομάχι" του εκάστοτε συστήματος?

Τέλος δεν μπορώ να καταλάβω γιατί οι κονσόλες (Ps3 για παράδειγμα) παίζουν σε τόσο χαμηλές αναλύσεις και πολλές φορές χωρίς AA, πράγμα που σε μερικά παιχνίδια λες ότι παίζεις στο PC σε Software mode (αν το παρουσιάσω λίγο τραγικά).

Δεν υπάρχει bottleneck στις κονσόλες? Είναι μήπως έτσι η δομή τους που είναι CPU limited τα παιχνίδια οπότε και οι χαμηλές αναλύσεις με τα ανύπαρκτα φίλτρα δεν είναι πρόβλημα στη απόδοση?

  • Απαντ. 151
  • Δημ.
  • Τελ. απάντηση
Δημοσ.

edit: :cry:οχού, οχού πάλι μεγάλο βγήκε, skip it if u will

-

νομίζω πως το θέμα της tv που σχολιάστηκε σε τόσες σελίδες δεν πολυκολλάει, δεν μπορεί να συγκρίνει o ένας monitor και ο άλλος tv, είναι διαφορετικά πράγματα γιατί τόσα post για αυτό

-

ήθελα να πω για το cpu vs gpu θέμα όταν μιλάμε για αποκλειστική εφαρμογή και όχι συνδυασμό των δύο

οι gpu δεν μπορούν να φανούν πιο χρήσιμες σε εκτός γραφικών εφαρμογές προς το παρόν αλλά όπως φαίνεται μειονεκτούν και σε εφαρμογές γραφικών που ειπεισέρχονται οι επεξεργαστές (μιλάμε όταν υπάρχει το σωστό software μόνο), στην πραγματικότητα χάνουν δλδ έδαφος όχι απλά δεν κερδίζουν αυτή τη στιγμή, τα υπόλοιπα είναι διαφημίσεις

 

υπάρχουν αυτή τη στιγμή παραδείγματα εφαρμογών που διαχειρίζονται το ίδιο γραφικό μέσω cpu ή gpu και η gpu δεν ακολουθεί ακόμη και με ελάχιστες ρυθμίσεις, δεν χρειάζεται να περιμένουμε επόμενες τεχνολογίες για να κάνουμε αυτή τη σύγκριση διότι υπάρχουν ήδη εφαρμογές όπου ο κώδικας δεν είναι ελλειπής

 

στο γενικότερο θέμα υπάρχουν δύο σημεία και τα δύο εξίσου σημαντικά

- το πρώτο φυσικά είναι το θέμα του κώδικα και της πλατφόρμας

το πόσο γρήγορα θα αποδώσει η κάρτα ή ο επεξεργαστής εξαρτάται από το πόσο καλά λειτουργεί το software και συνεργάζεται με το υπόλοιπο σύστημα

δε μιλάμε το software από την πλευρά των σχεδιαστών των εφαρμογών όμως μόνο, αλλά για το software από την πλευρά των κατασκευστών cpu / gpu και σχεδιαστών λογισμικού

δεν φτάνει να υπάρξει software που θα εκμεταλλευεί τις κάρτες στο μέλλον σωστά γιατί ας μην ξεχνάμε ότι αυτή τη στιγμή δεν υπάρχει καν software που να εκμεταλλεύεται σωστά τους επεξεργαστές έτσι, βασικά πράγματα που συζητιούνται σχεδόν δεκαετία δεν έχουν λυθεί ακόμη

 

τα crunch numbers των gpu στη θέση cpu που έχω διαβάσει μέχρι στιγμής, οι επιδόσεις σε άλλες λειτουργίες και benchmark στο πουθενά είναι εντελώς άσχετα με τις επιδόσεις που θα έχουν σε πραγματικές εφαρμογές με καλό κώδικα όπως και στο παράδειγμα που έγραψα πιο πριν

 

οπότε ακόμη και εάν δεν υπήρχαν άλλοι παράγοντες, είναι πολύ σχετικό αν πράγματικά οι κάρτες θα μπορούσαν να φανούν χρήσιμες στο μέλλον αντί των επεξεργαστών όταν το αντίστροφο φαίνεται καλύτερο σε εφαρμογές που μέχρι πρόσφατα δεν άγγιζαν καθόλου τους επεξεργαστές αλλά τώρα δουλεύουν χωρίς κάρτες

 

- το δεύτερο είναι ότι από τη στιγμή που (αν δλδ) θα διευρυνθεί η λειτουργία των δύο στις ίδιες εφαρμογές αυτό θα σήμαινε άμεσο ανταγωνισμό και των δύο προϊόντων

είτε οι κάρτες είχαν μεγαλύτερες επιδόσεις εκεί ή αλλού είτε όχι δεν θα μας ένοιαζε αυτό αλλά όπως πάντα το σημαντικό θα ήταν τι επιδόσεις θα είχαν σε σχέση με το κόστος τους και αντίστοιχα τι επιδόσεις και κόστος θα είχαν οι επεξεργαστές για τα συγκεκριμένα πράγματα

 

για σκεφτείτε όμως πόσο απλό θα ταν αυτό.. το πρόβλημα είναι πως δεν είναι

εκτός του ότι αυτό δεν συμφέρει καμία εταιρεία στο παιχνίδι να μπουν στην ίδια αγορά με ανταγωνιστικά προϊόντα, μα από καμία άποψη και για αυτό δεν θα επένδυα από τώρα στις διαφημιζόμενες νέες πλατφόρμες που μπορεί να σβηστούν σε μία νύχτα στο μέλλον, αυτό θα σήμαινε καταρρακτώδη προσαρμογή των τιμών ώστε να μπορεί ο μέσος χρήστης να κάνει μια σύγκριση επιδόσεων και τιμών

 

οι τιμές αυτή τη στιγμή έχουν προσαρμοστεί με βάση τον ανταγωνισμό φυσικά κι αν διαφορετικά προϊόντα διαφορετικών νυν τιμών ριχθούν στην ίδια αγορά με άλλα θα γίνει ότι γίνεται όταν συνδέεις δύο διαφορετικά γεμισμένα δοχεία νερού

δεν υπάρχει χρόνος για να γίνει ομαλή προσαρμογή των αγορών και εκτός των άλλων δεν συμφέρει ούτε από αυτήν την άποψη να ανταγωνιστούν περαιτέρω σε κοινές εφαρμογές αφού εκτός του ανταγωνισμού στα νέα προϊόντα θα πρέπει να χάσουν από τα πρώτα αρκετά χρήματα σε σχέση με την τωρινή κατάσταση

 

οπότε εγώ θα κράταγα πολύ μικρό καλάθι για τις νέες τεχνολογίες που ακούω όταν ακόμη δεν έχουμε καταφέρει να εντοιχίσουμε τις παρούσες σωστά

θα τις ήθελα, πραγματικά θα ήθελα στις περισσότερες εφαρμογές να χρησιμοποιώ εγώ όπως νομίζω καλύτερα το hardware αλλά δεν νομίζω ότι είμαστε και πολύ κοντά ούτε σε τεχνολογία αλλά ούτε σε βούληση, μακάρι να διαψευσθώ

-

με το clear type φαινόντουσαν θολά σε TFT? :o
αν μιλάει για παλιότερα σε χαμηλή ανάλυση θα ήταν χειρότερα, είναι λογικό
Δημοσ.
Μα φυσικά και η οθόνη του υπολογιστή είναι πιο καλή!

Αλλά δυσκολεύομαι να καταλάβω πως γίνεται να μην μπορείς να παίξεις παιχνίδια στην Full HD TV (40"+) όταν κάποιοι θα έκανα και φίφες για να μπορούν να έχουν ένα τέτοιο set-άρισμα. Και πραγματικά μιλάω από απόσταση 1-2 μέτρων από τη TV της υπογραφής μου, παίζω όλα τα παιχνίδια τέλεια! Όχι μόνο χωρίς καμιά ενόχληση, αλλά με πολύ μεγάλη απόλαυση.

 

Κάποιοι κάνουν και φίφες (και τις απολαμβάνουν κιόλας) και χωρίς να τους δώσεις να παίξουν παιχνίδια σε 40-άρα TV. Δικαίωμά του του καθένα απλά δεν είναι του γούστου μου.

 

Για σένα μπορεί το αποτέλεσμα να είναι καλύτερο γιατί έχεις μεγαλύτερη επιφάνεια θέασης για μένα όχι γιατί για μένα μετράει η ποιότητα απεικόνισης σε συνδυασμό με την επιφάνεια θέασης και όχι δεν είναι το ίδιο να έχεις 1920*χχχχ σε μια 22-26" και μια 40" οθόνη. Αν δεν μπορείς να συλλάβεις την διαφορά μεταξύ των δύο όσων αφορά τον βηματισμό κουκκίδας μπορείς να είσαι ευτυχισμένος.

 

Εγώ την τηλεόραση την έχω συνδέσει με το home cinema στο λιβινγκ ρουμ για κινηματογράφο της παντόφλας γιατί το ψυγείο απλά είναι πιο κοντά (sic) ;)

 

Μπράβο, αν σε ενοχλεί το PC στην TV, το PS3 θα πρέπει να σου φέρνει επιληψία με το Alias που έχει. Εμένα για παράδειγμα με ενοχλεί στα περισσότερα παιχνίδια του PS3!

Αν οι TVs ήταν καλύτερες από τα monitors, τότε θα πετάγαμε όλοι τα monitors και θα πουλάγανε μόνο TV!

 

Δεν παίζω πια σε κονσόλες εδώ και πολλά χρόνια. Μόλις φτηνήσουν οι καινούργιες TV (πολύ μετά την κυκλοφορία τους) με τα ονομαστικά 200Hz λέω να αρπάξω μια, αλλά πάλι μόνο για TV/DVD.

 

Για να βάλω λίγο το θέμα OnTopic...

Πολύ ενδιαφέρουσα η τεχνική για το "aliazing", αλλά υποθέτω ότι χρησιμοποιείται από PC μόνο λόγω επεξεργαστικής ισχύς?

 

΄Οταν το παιχνίδι σε συνεργασία με το λειτουργικό δεν σε αφήνει να ενεργοποιήσεις οποιαδήποτε μορφή antialiasing είναι μια λογική εναλλακτική λύση. Υπάρχουν πλείστα σημερινά παιχνίδια που κάτω από DX10 δεν σε αφήνουν να ενεργοποιήσεις καθόλου ΑΑ.

 

Η ερώτηση μου είναι:

Ποιο βαριά επεξεργασία είναι να παίζεις ένα παιχνίδι σε ανάλυση 1680x... με 16xAA/16xAF ή σε 2988χ... με 1xAA/16xAF?

 

To πρώτο αλλά έθεσες την ερώτηση σε λάθος βάση. ΄Οταν διπλασιάζεις την ανάλυση με 2χ ανά άξονα, δηλαδή από 1680*1050 πας σε 3360*2100 και κάνεις downsampling πάλι στα 1680*1050 (δηλαδή την ανάλυση που χρησιμοποιείς) τότε είτε το κάνεις με 2x sparsed supersampling ή μέσω της προαναφερόμενης εναλλακτικής μεθόδου το αποτέλεσμα σε επιδόσεις και ποιότητα απεικόνισης είναι ίδιο. Σε κάθε περίπτωση από τις δύο προαναφερόμενες χάνεις τον μισό ρυθμό πλήρωσής (fill rate) που έχεις για τα 1680*1050, γιατί είναι εύκολο να σκεφτείς ότι οι απαιτήσεις σου σε ρυθμό πλήρωσης είναι διπλάσιες στα 3360*2100.

 

Αν μιλάγαμε για 16χ δείγματα supersampling ή ανάλογο upsampling θα έπρεπε να επεξεργαστή η GPU εσωτερικά στα 26880*16800 και πριν καν το επιχειρήσεις σε σημερινό παιχνίδι θα σου βγάλει το μεσαίο δάχτυλο τόσο η GPU όσο και η οποιαδήποτε οθόνη.

 

Με λίγα λόγια τα φίλτρα ή η ανάλυση είναι το πιο "βαρύ" κομμάτι για το "στομάχι" του εκάστοτε συστήματος?

 

Εξαρτάται τι εννοείς με φίλτρα ακριβώς. Aν μιλάμε για multisampling AA (που είναι η πιο διαδεδομένη μορφή ΑΑ σήμερα) και επειδή εξομαλύνει μόνο τις άκρες των πολυγώνων το κόστος σε ρυθμό πλήρωσης (fill rate) είναι σχετικά μικρό αλλά θα εξακολουθεί να αφαιρεί σε κατανάλωση μνήμης GPU και εύρους μνήμης.

 

Τέλος δεν μπορώ να καταλάβω γιατί οι κονσόλες (Ps3 για παράδειγμα) παίζουν σε τόσο χαμηλές αναλύσεις και πολλές φορές χωρίς AA, πράγμα που σε μερικά παιχνίδια λες ότι παίζεις στο PC σε Software mode (αν το παρουσιάσω λίγο τραγικά).

Δεν υπάρχει bottleneck στις κονσόλες? Είναι μήπως έτσι η δομή τους που είναι CPU limited τα παιχνίδια οπότε και οι χαμηλές αναλύσεις με τα ανύπαρκτα φίλτρα δεν είναι πρόβλημα στη απόδοση?

 

Οι κονσόλες είναι "κλειστές" παιχνιδομηχανές με πολύ συγκεκριμένες προδιαγραφές (και κλειστές γιατί δεν αναβαθμίζονται). ΄Εχεις υπόψιν σου πόσο δυνατή είναι η GPU στο PS3 και πόση μνήμη έχει στην διάθεσή της ακριβώς; To RSX του είναι μια παραλλαγή του G7x (δηλαδή 7800GTX) στα 500MHz και έχει και τον Cell που είναι ευέλικτος ώστε να δανείζει μερικούς πόρους στην GPU, αλλά δεν είναι και ο υπερεπεξεργαστής που θα θέλανε μερικοί να είναι.

 

Τόσο για το PS3 όσο και για το XBox360 τα συνηθισμένα 720p είναι μια χαρά ανάλυση όταν δεδομένου του φόρτου γεωμετρίας και υφών που έχουν να αντιμετωπίσουν και ανάλογα με το genre του παιχνιδιού βγάζουν vsynced 30 ή 60Hz. Mε κάποιες προσθέσεις το εκάστοτε παιχνίδι κονσόλας μπορεί μετά ευκολότερα να γίνει port στο PC με εμφανής αλλά όχι τεράστιες διαφορές. Αν οι δημιουργοί παιχνιδιών κονσολών αφιέρωναν πόρους σε AA/AF θα έπρεπε να αφαιρέσουν πολύ περισσότερο σε γεωμετρία και υφές με αποτέλεσμα να έχεις μεν καλύτερα φίλτρα αλλά χειρότερο απεικόνιση περιεχομένου.

 

Τώρα θα μου πεις γιατί οι κατασκευαστές κονσολών δεν βάζουν ακόμα δυνατότερο hardware στις κονσόλες. ΄Ηδη το hw που βάζουν είναι συνήθως τόσο ακριβό που συνήθως κατά την κυκλοφορία της κονσόλας (πάντα σε συσχετισμό με την τελική τιμή της) σημαίνει ζημιά για τον κατασκευαστή στην αρχή. Η απόσβεση γίνεται με τα χρόνια όταν το κόστος παραγωγής γίνεται ολοένα και μικρότερο και μέσω του κέρδους που αποφέρουν τα παιχνίδια.

 

Η κονσόλα πρέπει να του κρατήσει του κατασκευαστή τουλάχιστον 4-5 χρόνια στις δόξες τις και είναι εκ των πραγμάτων ένα εντελώς διαφορετικό κεφάλαιο από ότι είναι το PC. ΄Αλλο μια εξειδικευμένη παιχνιδομηχανή και άλλο ένα πολυχρηστικό μηχάνημα όπως το PC.

 

---------- Το μήνυμα προστέθηκε στις 10:38 ----------

 

edit: :cry:οχού, οχού πάλι μεγάλο βγήκε, skip it if u will

-

νομίζω πως το θέμα της tv που σχολιάστηκε σε τόσες σελίδες δεν πολυκολλάει, δεν μπορεί να συγκρίνει o ένας monitor και ο άλλος tv, είναι διαφορετικά πράγματα γιατί τόσα post για αυτό

 

΄Ελα μου ντε....

-

ήθελα να πω για το cpu vs gpu θέμα όταν μιλάμε για αποκλειστική εφαρμογή και όχι συνδυασμό των δύο

οι gpu δεν μπορούν να φανούν πιο χρήσιμες σε εκτός γραφικών εφαρμογές προς το παρόν αλλά όπως φαίνεται μειονεκτούν και σε εφαρμογές γραφικών που ειπεισέρχονται οι επεξεργαστές (μιλάμε όταν υπάρχει το σωστό software μόνο), στην πραγματικότητα χάνουν δλδ έδαφος όχι απλά δεν κερδίζουν αυτή τη στιγμή, τα υπόλοιπα είναι διαφημίσεις

 

H διαφορά είναι στην ποσότητα των threads/clock. ΄Οταν έχεις υπεραπλουστευμένα λίγα ή και μόνο 1 ή 2 threads είσαι στο πεδίο μέγιστης επάρκειας μιας CPU και όταν έχεις από δεκάδες μέχρι εκατοντάδες threads είσαι στο πεδίο μέγιστης επάρκειας μιας GPU. Σε μια general purpose εφαρμογή αν και εφόσον υπάρχουν σημεία που έχουν μια πλειάδα threads τότε είναι σαφώς επαρκέστερο το GPGPU μέσω GPU και αν ακόμα η ιστορία είναι στα γεννοφάσκια της κινείται με μαθηματική ακρίβεια στην κατεύθυνση αυτή.

 

Στην αντίθετη περίπτωση θα ήταν ένα τεράστιο οξύμωρο σχήμα για την ίδια την Intel να σπαταλάει ατέλειωτους πόρους στο project Larabee (και ναι η ουσιαστικότερη δύναμή του είναι στο πεδίο GPGPU παρά στο τρισδιάστατο), να υποστηρίζει ενεργά πρωτοβουλίες όπως το OpenCL και να δημιουργεί παράλληλα propietary GPGPU API (αντίποδας του CUDA) επονομαζόμενο Ct.

 

΄Οσων αφορά το τρισδιάστατο αδιαμφισβήτητα θα χρείαζεται και στο μέλλο τόσο μια δυνατή CPU όσο και μια δυνατή GPU. To που εσύ βλέπεις συγκεκριμένα να χάνουν έδαφος οι GPU είναι καλό ερώτημα και αν τυχών το μυαλό σου πάει στην κατεύθυνση Larabee όπως πολλών άλλων για πολλοστή φορά είναι GPU και σε καμία περίπτωση CPU.

 

υπάρχουν αυτή τη στιγμή παραδείγματα εφαρμογών που διαχειρίζονται το ίδιο γραφικό μέσω cpu ή gpu και η gpu δεν ακολουθεί ακόμη και με ελάχιστες ρυθμίσεις, δεν χρειάζεται να περιμένουμε επόμενες τεχνολογίες για να κάνουμε αυτή τη σύγκριση διότι υπάρχουν ήδη εφαρμογές όπου ο κώδικας δεν είναι ελλειπής

 

Παιχνίδια πενταετίας και πιο παλιά με πλήρης ανεπάρκεια φιλτραρίσματος υφών όπως στις σημερινές GPU ίσως; Για δοκίμασε κάποιο πιο πρόσφατο παιχνίδι σε άνω του μετρίου ανάλυση με μέγιστες ρυθμίσεις και ανισοτροπικό να δούμε πόσα δευτερόλεπτα θα χρειαστείς ανά καρέ σε μια CPU. Οι αποστάσεις εξακολουθούν να είναι τόσο μεγάλες που δεν είναι καν αστείο και όχι δεν ξαναγυρίζουμε στην εποχή του sw rendering.

 

στο γενικότερο θέμα υπάρχουν δύο σημεία και τα δύο εξίσου σημαντικά

- το πρώτο φυσικά είναι το θέμα του κώδικα και της πλατφόρμας

το πόσο γρήγορα θα αποδώσει η κάρτα ή ο επεξεργαστής εξαρτάται από το πόσο καλά λειτουργεί το software και συνεργάζεται με το υπόλοιπο σύστημα

δε μιλάμε το software από την πλευρά των σχεδιαστών των εφαρμογών όμως μόνο, αλλά για το software από την πλευρά των κατασκευστών cpu / gpu και σχεδιαστών λογισμικού

δεν φτάνει να υπάρξει software που θα εκμεταλλευεί τις κάρτες στο μέλλον σωστά γιατί ας μην ξεχνάμε ότι αυτή τη στιγμή δεν υπάρχει καν software που να εκμεταλλεύεται σωστά τους επεξεργαστές έτσι, βασικά πράγματα που συζητιούνται σχεδόν δεκαετία δεν έχουν λυθεί ακόμη

 

H λύση όμως σαφέστατα δεν είναι αποκλειστικά στις CPU, αλλά σε συνδυασμό CPU & GPU και την καλύτερη δυνατή εκμετάλλευση των πόρων ενός συστήματος κατά προτίμηση με ετερογενής επεξεργασία. Πόσα threads θεωρείς ότι θα μπορεί να επεξεργαστεί στο μέγιστο θεωρητικό μια CPU το 2011; ΄Αντε μετά βίας 16 σε οχταπύρηνο επεξεργαστή και ακόμα και αν το μελλοντικό λογισμικό εκμεταλλευόταν τόσα threads/clock σε μελλοντικά παιχνίδια εξακολουθεί να απέχει έτη φωτός από τον παραλληλισμό μιας GPU.

 

Είναι απλό θες μια ή λίγες εργασίες; Το καλύτερό σου είναι μια CPU. Θες δεκάδες μέχρι εκατοντάδες εργασίες; Το καλύτερό σου είναι μια GPU. ΄Οτι και να γίνει θα χρειαστείς και τα δύο. Ο ουσιαστικός ρόλος της ετερογενής επεξεργασίας είναι να εκμεταλλευτείς καλύτερα τους διαθέσιμους πόρους μιας GPU όπου αυτό έχει νόημα σε απλές εφαρμογές και όχι να κάθεται και να πλέκει πουλόβερ.

 

- το δεύτερο είναι ότι από τη στιγμή που (αν δλδ) θα διευρυνθεί η λειτουργία των δύο στις ίδιες εφαρμογές αυτό θα σήμαινε άμεσο ανταγωνισμό και των δύο προϊόντων

είτε οι κάρτες είχαν μεγαλύτερες επιδόσεις εκεί ή αλλού είτε όχι δεν θα μας ένοιαζε αυτό αλλά όπως πάντα το σημαντικό θα ήταν τι επιδόσεις θα είχαν σε σχέση με το κόστος τους και αντίστοιχα τι επιδόσεις και κόστος θα είχαν οι επεξεργαστές για τα συγκεκριμένα πράγματα

 

Mιλάμε πάντα για καλύτερη εκμετάλλευση των διαθέσιμων πόρων ενός συστήματος. Και ναι η εξέλιξη της ετερογενής επεξεργασίας θα φέρει δείγματα ανταγωνισμού στο απώτερο μέλλον μεταξύ των δύο οικογενειών, αλλά οι σημερινές βάσεις μέγιστης επάρκειας θα εξακολουθούν να υπάρχουν και τότε για την κάθε πλευρά.

 

οπότε εγώ θα κράταγα πολύ μικρό καλάθι για τις νέες τεχνολογίες που ακούω όταν ακόμη δεν έχουμε καταφέρει να εντοιχίσουμε τις παρούσες σωστά

θα τις ήθελα, πραγματικά θα ήθελα στις περισσότερες εφαρμογές να χρησιμοποιώ εγώ όπως νομίζω καλύτερα το hardware αλλά δεν νομίζω ότι είμαστε και πολύ κοντά ούτε σε τεχνολογία αλλά ούτε σε βούληση, μακάρι να διαψευσθώ

-

αν μιλάει για παλιότερα σε χαμηλή ανάλυση θα ήταν χειρότερα, είναι λογικό

 

Aπό κάπου πρέπει να γίνει μια αρχή γιατί χωρίς το ανάλογο hardware δεν θα μπορεί να γραφτεί και το ανάλογο software. Mε άλλα λόγια αν δεν υπάρξουν στο προβλεπόμενο μέλλον SoCs με ενισχυμένες βάσεις στο πεδίο GPU δεν θα είναι εύκολο μια πενταετία μετά να έχουμε ανάλογο lowest common denominator για κάθε είδους εξέλιξη σε αυτή την κατεύθυνση.

 

Αν το ενδιαφέρον όσων αφορά το GPGPU περιοριζόταν μόνο σε μια εταιρία ή και μια χούφτα εταιριών θα ήταν εύκολο να πεις κανείς ότι έχει μηδαμινές πιθανότητες. Από τη στιγμή όμως που η μεγάλη πλειοψηφία των εταιριών επενδύουν ενεργά στην ιστορία της ετερογενής επεξεργασίας δεν μπορεί όλοι να είναι αφελής ξαφνικά.

 

Ιδού η λίστα των εταιριών που συμμετάσχουν ενεργά στο OpenCL:

 

OpenCL is being created by the Khronos Group with the participation of many industry-leading companies and institutions including 3DLABS, Activision Blizzard, AMD, Apple, ARM, Broadcom, Codeplay, Electronic Arts, Ericsson, Freescale, Fujitsu, GE, Graphic Remedy, HI, IBM, Intel, Imagination Technologies, Los Alamos National Laboratory, Motorola, Movidia, Nokia, NVIDIA, Petapath, QNX, Qualcomm, RapidMind, Samsung, Seaweed, S3, ST Microelectronics, Takumi, Texas Instruments, Toshiba and Vivante.

 

http://www.khronos.org/opencl/

 

Πέρα από τους ISV οι πλειοψηφία των εταιριών κινούνται κυρίως στην αγορά SoC για smartphones. GPGPU processing υπό την μορφή image processing υπάρχει ήδη σε μια πλειάδα αυτών σε R&D και ιδού τα πρώτα δείγματα σε μορφή techdemo:

 

http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=2&DemoTech=POWERVR%20GraphicsViewPort

 

To IP του πυρήνα αυτού θα τον βρεις σε υπάρχοντα smartphones/netbooks της Apple, Samsung, Sony Erricson, NOKIA και δεν συμμαζεύεται. Η μεθεπόμενη γενιά SoCs για την αγορά αυτή θα έχει διπύρυνες CPU και διπύρινες GPU, oπότε μάλλον η εξέλιξη των πραγμάτων κινείται προς μια πολύ συγκεκριμένη κατεύθυνση τόσο στο απόλυτο embedded form factor μέχρι και το high end.

Δημοσ.
To που εσύ βλέπεις συγκεκριμένα να χάνουν έδαφος οι GPU είναι καλό ερώτημα και αν τυχών το μυαλό σου πάει στην κατεύθυνση Larabee όπως πολλών άλλων για πολλοστή φορά είναι GPU και σε καμία περίπτωση CPU.
όχι μιλάω για gpu / cpu όπως έγραψα όπως αυτά που έχεις στον υπολογιστή σου (περίπου δλδ) καμία σχέση με larabee αφού ούτως ή άλλως μιλάω για τωρινές εφαρμογές
Παιχνίδια πενταετίας και πιο παλιά με πλήρης ανεπάρκεια φιλτραρίσματος υφών όπως στις σημερινές GPU ίσως;
ναι εδώ χανόμαστε με εσένα συνήθως, εσύ μιλάς για παιχνίδια ενώ εγώ μιλάω για εφαρμογές 3d γραφικών

από παιχνίδια δεν γνωρίζω, αλλά θα πόνταρα ότι τα σύγχρονα παιχνίδια δεν μπορούν να εκμεταλλευτούν πολλαπλούς πυρήνες και επεξεργαστές εκτός από τις κάρτες γραφικών άρα το πόσα δευτερόλεπτα θα χρειαστείς σε ένα καρέ από εφαρμογή που δεν μπορεί να εκμεταλλευτεί σωστά τα cpu δεν μου δίνει καμία πληροφορία

αυτό πάει στο θέμα software που έγραψα πιο πριν, όταν η συντριπτική πλειοψηφία των εφαρμογών σήμερα και σε μερικά σημεία ακόμη και το λειτουργικό δεν μπορεί να εκμεταλλευτεί σωστά τους επεξεργαστές και δε μιλάω μόνο για resource hungry εφαρμογές αλλά και απλές εφαρμογές, οι υποσχέσεις για το μέλλον δεν σημαίνουν κάτι, περιμένουμε και βλέπουμε

όταν το word (λέμε τώρα) κάνει εργασίες με την ίδια καθυστέρηση με μια εφαρμογάρα με 1000 instances που χρησιμοποιεί όλους τους πυρήνες τι να τις κάνεις τις νέες τεχνολογίες, η τεχνολογία πχ για το word υπάρχει εδώ και δεκαετίες ας μου δώσουν αυτή πρώτα που μου τη χρωστάνε και μετά ας μου διαφημίσουν ότι θέλουν

 

επιπλέον, στα παιχνίδια ακόμη και εάν βρεις κάποιο που να χρησιμοποιεί όλα τα cpu, ο τρόπος που γράφονται αυτή τη στιγμή δεν είναι ευνοικός, δλδ ναι μεν θα χρησιμοποιεί όλο το cpu αλλά για παραπάνω κώδικα, εδώ φταίνε οι πλατφόρμες βέβαια, τι να κάνεις αυτή είναι η τωρινή κατάσταση

 

στο χώρο του 3d όμως αυτή τη στιγμή υποτίθεται πως το hardware χρησιμοποιείται κατά το καλύτερο τρόπο, για αυτό και κοστίζει τόσο ακριβά οπότε κάποια πρώτα δείγματα έχουμε από εφαρμογές που χρησιμοποιούν για την ίδια λειτουργία cpu ή gpu, εδώ μπορείς να κάνεις κάποιες συγκρίσεις (αυτή τη στιγμή) επεξεργάζοντας το ίδιο γραφικό μόνο με gpu ή μόνο με cpu

συγκεκριμένα με εφαρμογές gpu το αποτέλεσμα είναι ανεκτό αλλά τα fps κάτω από 20 ενώ με cpu είναι πάνω από 60, στα 4 million

υπάρχει μεγάλη πιθανότητα να υπερσχύουν οι κάρτες κατά κράτος σε θέματα εκτός της γεωμετρίας όπως λες (τα παιχνίδια ως γνωστόν έχουν την λιγότερη δυνατή γεωμετρία με περισσότερο βάρος στα textures) αλλά είναι πολύ δύσκολο να φτάσω την κάρτα στα όρια της σε άλλο τομέα και βέβαια δεν έχω εφαρμογή που να μπορέσει να χρησιμοποιήσει cpu σε αυτήν την περίπτωση, απλά δεν γνωρίζω τα αποτελέσματα εκεί δεν μπορώ να πω με βεβαιότητα τι θα γίνει

 

το καλύτερο βέβαια είναι αυτό που λες cpu + gpu όμως αυτή τη στιγμή τα παιχνίδια πχ που το κάνουν αυτό απλά έχουν ένα σωρό κομμάτια και το ένα το παίρνει η κάρτα και το άλλο ο επεξεργαστής

ξέρεις που θα δεις πραγματικά μεγάλη δύναμη? όταν σε ένα κομμάτι συνεργαστούν και τα δύο

εκεί θα χαίρεσαι που πλήρωσες για την τεχνολογία γιατί εκεί θα απογειωθούν οι επιδόσεις των μηχανημάτων

η τεχνολογίες που θα.. έρθουν προσωπικά δεν μου λένε τπτ, ας περιμένουμε

ψάξε να βρεις από πότε υπάρχουν x64 λειτουργικά, από πότε υπάρχουν εφαρμογές που χρησιμοποιούν 100% τους επεξεργαστές κλπ κλπ κλπ κλπ κλπ κλπ

το ότι υπάρχουν δεν σημαίνει τπτ, γιατί δεν ενσωματώνονται στο προϊόν του end user

μπορείς να βρεις πλατφόρμες δεκαετίας της επαγγελματικής αγοράς με υψηλότερες επιδόσεις από τα σημερινά προϊόντα της end user αγοράς

 

το πρόβλημα με τις διαφημίσεις είναι ότι σου λένε τι δυνατότητες θα υπάρχουν όχι τι πραγματικά θα υλοποιηθεί στο τέλος για σένα

Aπό κάπου πρέπει να γίνει μια αρχή γιατί χωρίς το ανάλογο hardware δεν θα μπορεί να γραφτεί και το ανάλογο software. Mε άλλα λόγια αν δεν υπάρξουν στο προβλεπόμενο μέλλον SoCs με ενισχυμένες βάσεις στο πεδίο GPU δεν θα είναι εύκολο μια πενταετία μετά να έχουμε ανάλογο lowest common denominator για κάθε είδους εξέλιξη σε αυτή την κατεύθυνση.

όπως εξήγησα υπάρχουν παραδείγματα με hardware που χρησιμοποιούμε σήμερα, με τεχνολογία software που υπάρχει εδώ και χρόνια και μπορεί να προσαρμοστεί για το hardware αλλά με τους κατασκευαστές και σχεδιαστές να μην το υλοποιούν λόγω κόστους και άλλων παραγόντων παρόμοιους με τους παράγοντες που δεν θα συνέφερε ένας άμεσος ανταγωνισμός καρτών και επεξεργαστών σήμερα

 

το τι θα γίνει στο τέλος δεν το ξέρω αλλά τα links που παρέθεσες σωστά είναι αλλά κρατώ επιφυλάξεις, προσωπικά δλδ

το να επενδύουν σε νέες τεχνολογίες αυτές οι εταιρίες είναι η δουλειά τους, δεν μπορούν να μένουν έξω

μπορεί να έχεις δίκιο και να συνεχιστεί με τον ίδιο τρόπο η προσπάθεια, αυτό το δεν το ξέρω, αλλά σίγουρα ξέρεις και πόσες τεχνολογίες που επένδυσαν κολοσσοί κλπ και έχουν καταργηθεί, μερικές έχουν καταργηθεί και τις έχουν επαναφέρει πολύ αργότερα κιόλας αλλά σίγουρα μεγάλη μερίδα υλοποιήθηκε στα ακριβά μηχανήματα και όχι στα καθημερινά οπότε δεν ξέρουμε αν θα βοηθηθούμε εμείς με τα pc μας ή η cosmote με τα δικά της

 

μακάρι το opencl να υλοποιηθεί γιατί τώρα στις 3d εφαρμογές για παράδειγμα, το ένα από τα δύο δουλεύει στο full και το άλλο κάθεται στο 1% και νιώθω σαν ...

στο χώρο του 3d οι κάρτες στοιχίζουν από 1000άρικο και πάνω και οι w/s επεξεργαστές επίσης από 1000άρικο και πάνω και δεν έχω γνωρίσει ποτέ κανένα που να μη ζητάει αύξηση των επιδόσεων για μεγαλύτερες παραγωγές

συνεργασία και των δύο σε μία διεργασία, σε μία έτσι όχι σε εντελώς διαφορετικά κομμάτια, θα σήμαινε τεράστια αύξηση επιδόσεων την ώρα που επιπλέον επεξεργαστές, επιπλέον κάρτες, καλύτεροι επεξεργαστές και κάρτες που δίνουν σχετική αύξηση κοστίζουν δυσανάλογα

-

καλύτερα να κάνουμε ένα διάλειμμα όμως γιατί γράφουμε πολλά και οι δύο, anyway δεν διαφωνούμε και πουθενά, με στοιχεία μιλάμε δεν ακυρώνει το ένα το άλλο ;)

Δημοσ.
όχι μιλάω για gpu / cpu όπως έγραψα όπως αυτά που έχεις στον υπολογιστή σου (περίπου δλδ) καμία σχέση με larabee αφού ούτως ή άλλως μιλάω για τωρινές εφαρμογές

 

΄Ακυρο τότε.

αυτό πάει στο θέμα software που έγραψα πιο πριν, όταν η συντριπτική πλειοψηφία των εφαρμογών σήμερα και σε μερικά σημεία ακόμη και το λειτουργικό δεν μπορεί να εκμεταλλευτεί σωστά τους επεξεργαστές και δε μιλάω μόνο για resource hungry εφαρμογές αλλά και απλές εφαρμογές, οι υποσχέσεις για το μέλλον δεν σημαίνουν κάτι, περιμένουμε και βλέπουμε

όταν το word (λέμε τώρα) κάνει εργασίες με την ίδια καθυστέρηση με μια εφαρμογάρα με 1000 instances που χρησιμοποιεί όλους τους πυρήνες τι να τις κάνεις τις νέες τεχνολογίες, η τεχνολογία πχ για το word υπάρχει εδώ και δεκαετίες ας μου δώσουν αυτή πρώτα που μου τη χρωστάνε και μετά ας μου διαφημίσουν ότι θέλουν

 

Kαμία διαφωνία ως εδώ.

 

επιπλέον, στα παιχνίδια ακόμη και εάν βρεις κάποιο που να χρησιμοποιεί όλα τα cpu, ο τρόπος που γράφονται αυτή τη στιγμή δεν είναι ευνοικός, δλδ ναι μεν θα χρησιμοποιεί όλο το cpu αλλά για παραπάνω κώδικα, εδώ φταίνε οι πλατφόρμες βέβαια, τι να κάνεις αυτή είναι η τωρινή κατάσταση

 

Υπάρχουν άπειρα σημεία στα παιχνίδια που οι δημιουργοί είτε σπαταλάνε αλόγιστα είτε CPU είτε GPU πόρους ή και περιπτώσεις όπου μένουν στον αντίποδα πόροι ανεκμετάλλευτοι. Οι καλές μηχανές παιχνιδιών θέλουν πάρα πολύ χρόνο και δυστυχώς οι ISV συνήθως δεν διαθέτουν τον ανάλογο χρόνο και χρήμα για περαιτέρω βελτιστοποιήσεις. Σε έναν ιδανικό κόσμο θα ήταν πολλά διαφορετικά και συν τοις άλλοις δεν θα πετάγανε μόνο ένα οποιοδήποτε devkit στην μάπα ενός δημιουργού software αλλά θα υπήρχε και διαρκής και απρόσκοπτη υποστήριξη.

 

στο χώρο του 3d όμως αυτή τη στιγμή υποτίθεται πως το hardware χρησιμοποιείται κατά το καλύτερο τρόπο, για αυτό και κοστίζει τόσο ακριβά οπότε κάποια πρώτα δείγματα έχουμε από εφαρμογές που χρησιμοποιούν για την ίδια λειτουργία cpu ή gpu, εδώ μπορείς να κάνεις κάποιες συγκρίσεις (αυτή τη στιγμή) επεξεργάζοντας το ίδιο γραφικό μόνο με gpu ή μόνο με cpu

συγκεκριμένα με εφαρμογές gpu το αποτέλεσμα είναι ανεκτό αλλά τα fps κάτω από 20 ενώ με cpu είναι πάνω από 60, στα 4 million

υπάρχει μεγάλη πιθανότητα να υπερσχύουν οι κάρτες κατά κράτος σε θέματα εκτός της γεωμετρίας όπως λες (τα παιχνίδια ως γνωστόν έχουν την λιγότερη δυνατή γεωμετρία με περισσότερο βάρος στα textures) αλλά είναι πολύ δύσκολο να φτάσω την κάρτα στα όρια της σε άλλο τομέα και βέβαια δεν έχω εφαρμογή που να μπορέσει να χρησιμοποιήσει cpu σε αυτήν την περίπτωση, απλά δεν γνωρίζω τα αποτελέσματα εκεί δεν μπορώ να πω με βεβαιότητα τι θα γίνει

 

Φοβάμαι ότι εδώ δεν κατάφερα να καταλάβω εντελώς τι θέλεις να πεις.

 

το καλύτερο βέβαια είναι αυτό που λες cpu + gpu όμως αυτή τη στιγμή τα παιχνίδια πχ που το κάνουν αυτό απλά έχουν ένα σωρό κομμάτια και το ένα το παίρνει η κάρτα και το άλλο ο επεξεργαστής

 

Και σήμερα μοιράζονται αρκετές εργασίες, με την διαφορά ότι μπορεί να επιτευχθεί ακόμα μεγαλύτερη επάρκεια συνολικά όταν εκμεταλλευτούν ακόμα καλύτερα οι υπάρχοντες πόροι και αποδωθούν τα του Καίσαρος Καίσαρη. Με άλλα λόγια τον υφηλό παραλληλισμό στις GPU και τον μικρότερο στις CPU.

 

ξέρεις που θα δεις πραγματικά μεγάλη δύναμη? όταν σε ένα κομμάτι συνεργαστούν και τα δύο

 

Με την προυπόθεση ότι η εν λόγω συνεργασία θα βασιστεί στο να κατανεμηθούν οι εκάστοτε εργασίες εκεί που ο κάθε επεξεργαστής έχει την μέγιστη επάρκειά του. Δεν μπορείς να πεις για παράδειγμα ότι ένα σύστημα με dual chip GPU που τυγχάνει να είναι CPU bound, ότι θα βάλεις τον ένα πυρήνα GPU να κάνει το σύστημα λιγότερο CPU limited.

 

ψάξε να βρεις από πότε υπάρχουν x64 λειτουργικά, από πότε υπάρχουν εφαρμογές που χρησιμοποιούν 100% τους επεξεργαστές κλπ κλπ κλπ κλπ κλπ κλπ

το ότι υπάρχουν δεν σημαίνει τπτ, γιατί δεν ενσωματώνονται στο προϊόν του end user

μπορείς να βρεις πλατφόρμες δεκαετίας της επαγγελματικής αγοράς με υψηλότερες επιδόσεις από τα σημερινά προϊόντα της end user αγοράς

 

Δεν χρειάζεται να πάω πολύ μακριά. Πάρε το photoshop που ενώ χρησιμοποιεί φίλτρα και βελτιστοποιήσεις που ανήκουν σαφέστατα στην πλευρά της GPU με τις φιλότιμες προσπάθειες μεν του CS4 άλλαξαν κάποια πράγματα αλλά ελάχιστα σε σχέση με του τι θα μπορούσε να γίνει τελικά. Ακόμα χειρότερα το εν λόγω πρόγραμμα επωφελείτε τρομακτικά από μεγάλες ποσότητες μνήμης. Το μέγιστο σε μνήμη που εκμεταλλεύεται τελικά σε μια οποιαδήποτε GPU είναι 512ΜΒ (ασχέτως αν η κάρτα έχει πολύ περισσότερη μνήμη) και για οτιδήποτε παραπάνω σε παραπέμπει στην πολύ πιο αργή μνήμη συστήματος.

 

το τι θα γίνει στο τέλος δεν το ξέρω αλλά τα links που παρέθεσες σωστά είναι αλλά κρατώ επιφυλάξεις, προσωπικά δλδ

το να επενδύουν σε νέες τεχνολογίες αυτές οι εταιρίες είναι η δουλειά τους, δεν μπορούν να μένουν έξω

μπορεί να έχεις δίκιο και να συνεχιστεί με τον ίδιο τρόπο η προσπάθεια, αυτό το δεν το ξέρω, αλλά σίγουρα ξέρεις και πόσες τεχνολογίες που επένδυσαν κολοσσοί κλπ και έχουν καταργηθεί, μερικές έχουν καταργηθεί και τις έχουν επαναφέρει πολύ αργότερα κιόλας αλλά σίγουρα μεγάλη μερίδα υλοποιήθηκε στα ακριβά μηχανήματα και όχι στα καθημερινά οπότε δεν ξέρουμε αν θα βοηθηθούμε εμείς με τα pc μας ή η cosmote με τα δικά της

 

Το GPGPU είναι ολίγον τι μονόδρομος. Κυρίως γιατί μαζί με τους IHV που σχεδιάζουν γραφικά υποστηρίζεται και από κολοσσούς όπως η Intel & ΑΜD. To ότι η AMD θα επενδύσει σε μελλοντικά SoCs περισσότερο σε GPU παρά σε βάση CPU για τον πυρήνα αυτόν σαφώς και δεν είναι τυχαίο.

 

Αλλά θα στο θέσω σε διαφορετική βάση: ο τετραπύρηνος επεξεργαστής του Llano σίγουρα δεν θα είναι high end για το 2011 όπως δεν θα είναι και τα 240ALUs της GPU του. Ωστόσο ακόμα και να μην υπάρξει ίχνος βελτίωσης GPGPU γενικά εγώ τουλάχιστον θα το προτιμήσω σε ένα notebook στο μέλλον γιατί δεν θα στενάζει τόσο όσο οτιδήποτε συγκρίσημο της εποχής να παίξει μια μέτρια τρισδιάστατη εφαρμογή με μέτριες ρυθμίσεις και δεν θα έχει και οδηγούς που θα είναι για τα μπάζα όσων αφορά το 3D.

 

Kάτι για Adobe δεν ανέφερα σε προηγούμενη συμμετοχή σε σχέση με την AMD; Ιδού το πρώτο δείγμα: http://www.insomnia.gr/forum/showthread.php?t=344552

 

μακάρι το opencl να υλοποιηθεί γιατί τώρα στις 3d εφαρμογές για παράδειγμα, το ένα από τα δύο δουλεύει στο full και το άλλο κάθεται στο 1% και νιώθω σαν ...

 

To αν θα επικρατήσει DX11 ή OpenCL είναι στο χέρι καθαρά των εταιριών.

 

στο χώρο του 3d οι κάρτες στοιχίζουν από 1000άρικο και πάνω και οι w/s επεξεργαστές επίσης από 1000άρικο και πάνω και δεν έχω γνωρίσει ποτέ κανένα που να μη ζητάει αύξηση των επιδόσεων για μεγαλύτερες παραγωγές

συνεργασία και των δύο σε μία διεργασία, σε μία έτσι όχι σε εντελώς διαφορετικά κομμάτια, θα σήμαινε τεράστια αύξηση επιδόσεων την ώρα που επιπλέον επεξεργαστές, επιπλέον κάρτες, καλύτεροι επεξεργαστές και κάρτες που δίνουν σχετική αύξηση κοστίζουν δυσανάλογα

 

http://www.nvidia.com/object/cuda_home.html#

 

Μπορείς να φιλτράρεις επιλέγοντας κάτω αριστερά τα πεδία, ποιοί τομείς σε ενδιαφέρον. Μπορεί να είναι μονόπλευρο και να ισχύει μόνο για το ενεργό marketing της NVIDIA, αλλά γίνεται δουλειά στο παρασκήνιο και οι καρποί θα αργήσουν να φανούν.

 

καλύτερα να κάνουμε ένα διάλειμμα όμως γιατί γράφουμε πολλά και οι δύο, anyway δεν διαφωνούμε και πουθενά, με στοιχεία μιλάμε δεν ακυρώνει το ένα το άλλο ;)

 

Ποτέ δεν είπα όχι σε μια πολιτισμένη συζήτηση ;)

Δημοσ.
Φοβάμαι ότι εδώ δεν κατάφερα να καταλάβω εντελώς τι θέλεις να πεις.
λοιπόν, ένα 3d workstation είναι ακριβό

ακριβώς γιατί σου υπόσχεται ότι θα αξιοποιείται σωστά λόγω καλύτερου hardware, software, drivers (να μην αναλύσουμε) σε αντίθεση με ένα end user σύνολο που όπως αναλύσαμε δεν αξιοποιείται επαρκώς προς το παρόν

 

επομένως σε 3d εφαρμογές σε ένα w/s μπορούμε να πάρουμε κάποια αποτελέσματα, να κάνουμε κάποιες συγκρίσεις με ελάχιστη αξιοπιστία

 

εδώ λοιπόν το ίδιο 3d μοντέλο με καθαρά λειτουργία των cpu μου δίνει περισσότερα fps από καθαρά λειτουργία των gpu

του ρούφηγμα γίνεται για τη γεωμετρία, δλδ το πόσα πολύγωνα έχει το μοντέλο που επεξεργαζόμαστε στο πρόγραμμα (πρώην καθαρά λειτουργία των gpu στο χώρο των 3d εφαρμογών)

 

βάσει αυτού λέω πως αυτή τη στιγμή, εμένα με συμφέρει να επεξεργαστώ το ίδιο μοντέλο με τα cpu γιατί έχουν καλύτερες επιδόσεις και τη διαφορά την βλέπω εκεί που αρχίζει (γιατί μερικές φορές γίνεται σταδιακά) να πιάνει όλους τους πυρήνες

 

δεν χρειάζεται να ερμηνεύσω τα specs δλδ για να βγάλω θεωρητικό αποτέλεσμα, βλέπω σε πραγματική industrial εφαρμογή κάποια αποτελέσματα

 

εκτός της γεωμετρίας όμως, υπάρχουν και τα υπόλοιπα στοιχεία, texturing, lighting, shading, aa κλπ κλπ κλπ

στα textures πχ , πιθανόν οι gpu να νικούν κατά κράτος τα cpu αλλά αυτό δεν το ξέρω γιατί δεν υπάρχουν πραγματικές εφαρμογές για να κάνω αντίστοιχη σύγκριση αυτή τη στιγμή οπότε δεν μπορώ να πω βασισμένος μόνο στα specs που θεωρητικά δίνουν προβάδισμα στη gpu

 

οπότε σε κάποια άλλη επεξεργασία οι κάρτες μπορεί να φανούν πιο large αλλά προς το παρόν η μόνη ένα προς ένα σύγκριση που έχω δει μέχρι στιγμής σε πραγματικές εφαρμογές, που να εκμεταλλεύονται υποτίθεται σωστά και το cpu και το gpu αντίστοιχα είναι αυτή και τα cpu τα πάνε πιο καλά

 

αυτή είναι η πληροφορία μου δλδ ότι τη στιγμή που το software rendering (πρώην καθαρά cpu bound) προσπαθούν να το περάσουν στα gpu, το εντελώς αντίθετο δλδ το hardware rendering (πρώην καθαρά gpu bound) έχει ήδη δοκιμαστεί σε cpu και έπαιξε πολύ καλύτερα

με τη διαφορά ότι εδώ δεν υπήρχε θέμα του δεν αξιοποιείται η κάρτα σωστά που υπάρχει πχ στα παιχνίδια με τα cpu, υποτίθεται ότι την καλύτερη επίδοση της κάρτας την ξεπέρασαν οι επεξεργαστές

 

αλλά βέβαια πάλι πάμε στο opencl γιατί αυτό θα είναι προφανώς καλύτερο και θεωρητικά και πρακτικά

Δημοσ.
λοιπόν, ένα 3d workstation είναι ακριβό

ακριβώς γιατί σου υπόσχεται ότι θα αξιοποιείται σωστά λόγω καλύτερου hardware, software, drivers (να μην αναλύσουμε) σε αντίθεση με ένα end user σύνολο που όπως αναλύσαμε δεν αξιοποιείται επαρκώς προς το παρόν

 

επομένως σε 3d εφαρμογές σε ένα w/s μπορούμε να πάρουμε κάποια αποτελέσματα, να κάνουμε κάποιες συγκρίσεις με ελάχιστη αξιοπιστία

 

εδώ λοιπόν το ίδιο 3d μοντέλο με καθαρά λειτουργία των cpu μου δίνει περισσότερα fps από καθαρά λειτουργία των gpu

του ρούφηγμα γίνεται για τη γεωμετρία, δλδ το πόσα πολύγωνα έχει το μοντέλο που επεξεργαζόμαστε στο πρόγραμμα (πρώην καθαρά λειτουργία των gpu στο χώρο των 3d εφαρμογών)

 

Eξαρτάται για τι γεωμετρία ακριβώς μιλάμε. Και εδώ φοβάμαι ότι θα γυρίσουμε πάλι στο επίπεδο του παραλληλισμού που προανέφερα. Υπάρχουν benchmarks της Futuremark που δείχνουν ξεκάθαρα ότι οι GPU φτάνουν το μέγιστο της επάρκειάς τους όσο ανεβαίνει η ποσότητα των τριγώνων. Σε αντίθεση όσο κατεβαίνει o αριθμός των triangle batches τόσο υποφέρουν και οι επιδόσεις:

 

0,1425,sz=1&i=145437,00.gif

 

http://www.extremetech.com/article2/0,2845,2053784,00.asp

 

Γυρίζουμε λοιπόν πάλι στο υπεραπλουστευμένο σημείο όπου για λίγες/μετρημένες εργασίες θέλεις μια CPU και για πολλαπλές καλύτερα μια GPU.

 

Aν τώρα στο μέλλον το 3D modelling συμπεριλάβει τόσο πολύπλοκες τεχνικές όσο το DX11 adaptive tesselation για παράδειγμα πράγμα που σημαίνει έναν τεράστιο αριθμό πολύ μικρών τριγώνων θα ήταν χείριστη ιδέα να σκεφτεί κάποιος την CPU.

 

Tόσο ο δημιουργός λογισμικού όσο και ο τελικός χρήστης/αποδέκτης αυτού θα πρέπει να έχει ξεκαθαρίσει για τι ακριβώς θέλει τον εκάστοτε επεξεργαστή ανάλογα πάντα με την πολυπλοκότητα των εργασιών.

 

 

δεν χρειάζεται να ερμηνεύσω τα specs δλδ για να βγάλω θεωρητικό αποτέλεσμα, βλέπω σε πραγματική industrial εφαρμογή κάποια αποτελέσματα

 

εκτός της γεωμετρίας όμως, υπάρχουν και τα υπόλοιπα στοιχεία, texturing, lighting, shading, aa κλπ κλπ κλπ

στα textures πχ , πιθανόν οι gpu να νικούν κατά κράτος τα cpu αλλά αυτό δεν το ξέρω γιατί δεν υπάρχουν πραγματικές εφαρμογές για να κάνω αντίστοιχη σύγκριση αυτή τη στιγμή οπότε δεν μπορώ να πω βασισμένος μόνο στα specs που θεωρητικά δίνουν προβάδισμα στη gpu

To φιλτράρισμα των υφών (από trilinear & πάνω) είναι που θα κάνει μια CPU να σέρνεται παρά η απλή επεξεργασία υφών. Για τα υπόλοιπα αν και δεν υπάρχει πλέον T&L (transform & lighting) στις εφαρμογές (έχει αντικατασταθεί με vertex shading προ πολλού) μια GPU έχει ένα σχετικά μικρότερο προβάδισμα με transformations και πολύ περισσότερο με lighting. Φυσικά οι πρόσφατες CPU μπορούν πλέον στους εκάστοτε software renderers να επεξεραστούν σε μέτριες αναλύσεις παιχνίδια όπως το UT2003 με ανεχτές επιδόσεις από εκείνο το σημείο και μετά (καθαρόαιμη DX7 T&L εφαρμογή) που θα πάμε σε σημερινά παιχνίδια με εκαντοντάδες pixel shaders η προσωμοίωση σε μια CPU αρχίζει να γίνεται τραγική και δεν συζητάμε καν για πράγματα όπως ανισοτροπικό φιλτράρισμα ή και antialiasing.

 

αλλά βέβαια πάλι πάμε στο opencl γιατί αυτό θα είναι προφανώς καλύτερο και θεωρητικά και πρακτικά

To ΟpenCL ή οποιοδήποτε άλλο GPGPU API είναι κάπως άσχετο με το παραπάνω. Ναι μεν καλείται να εξισορροπήσει καλύτερα τους εκάστοτε διαθέσιμους πόρους ενός συστήματος, αλλά θα το κάνει χρησιμοποιώντας τους εκάστοτε επεξεργαστές εκεί ακριβώς που έχουν την μέγιστη επάρκειά τους ο καθένας.

 

Δεν μπορώ να ξέρω με τι ακριβώς δουλεύεις, αλλά ίσως να ήθελες να δοκιμάσεις στην αντιπαράθεση CPU & GPU πολύ πιο πολύπλοκα γεωμετρικά σενάρια και να ξαναδείς τις εκάστοτε διαφορές, γιατί πολύ φοβάμαι ότι πιθανότητα δουλεύεις με πιο ισορροπημένα πράγματα που ναι σαφώς θα ωφελήσουν περισσότερο μια CPU.

Δημοσ.

Κράτησα λίγα μόνο στοιχεία από τα παραπάνω και θα προσπαθήσω να διευρύνω…

\

To αν θα επικρατήσει DX11 ή OpenCL είναι στο χέρι καθαρά των εταιριών.

 

λοιπόν, ένα 3d workstation

...

αλλά βέβαια πάλι πάμε στο opencl γιατί αυτό θα είναι προφανώς καλύτερο και θεωρητικά και πρακτικά

 

 

 

Τα πάντα παραπάνω ξεκινάνε από τη λέξη workstation …

Και ευτυχώς ακόμα η λέξη δεν έχει αντικατασταθεί τελείως από τον όρο wintel or console.

 

Όσο υπάρχουν workstations θα έχουμε OpenGL,

Όσο υπάρχουν επαγγελματικοί εκτυπωτές θα υπάρχει PostScript.

(θυμάστε και κάτι κάρτες γραφικών με υποστήριξη PostScript?)

Και το DX11 ακόμα και αν κατακτήσει την αγορά της κονσόλας και του pc δε πρόκειται να υποκαταστήσει τα OpenGL γραφικά σε πολλά workstations.

 

Δεν είναι τα πάντα θέμα απόδοσης είναι και τυποποίησης.

Άλλωστε υπάρχουν workstation/controllers που δεν έχουν ανάγκη μεγάλης απόδοσης σε OpenGL, δείχνουν απλά λ.χ. ένα άξονα να περιστρέφετε σε ένα εργοστάσιο με ρομποτικά. Σε χαμηλή ανάλυση και ίσως και χωρίς textures. Αλλά είναι γραμμένο σε openGL.

 

H openCL υποθέτω θα ακολουθήσει τον ίδιο δρόμο.

 

Eξαρτάται για τι γεωμετρία ακριβώς μιλάμε. Και εδώ φοβάμαι ότι θα γυρίσουμε πάλι στο επίπεδο του παραλληλισμού που προανέφερα.

...

 

To ΟpenCL ή οποιοδήποτε άλλο GPGPU API είναι κάπως άσχετο με το παραπάνω. Ναι μεν καλείται να εξισορροπήσει καλύτερα τους εκάστοτε διαθέσιμους πόρους ενός συστήματος, αλλά θα το κάνει χρησιμοποιώντας τους εκάστοτε επεξεργαστές εκεί ακριβώς που έχουν την μέγιστη επάρκειά τους ο καθένας.

 

Δεν μπορώ να ξέρω με τι ακριβώς δουλεύεις, αλλά ίσως να ήθελες να δοκιμάσεις στην αντιπαράθεση CPU & GPU πολύ πιο πολύπλοκα γεωμετρικά σενάρια και να ξαναδείς τις εκάστοτε διαφορές, γιατί πολύ φοβάμαι ότι πιθανότητα δουλεύεις με πιο ισορροπημένα πράγματα που ναι σαφώς θα ωφελήσουν περισσότερο μια CPU.

 

Ας πάμε από τις επιδώσεις … και στην παραγωγικότητα των λύσεων αυτών…

 

Όσον αφόρα τις επιδώσεις πολλών επαγγελματικών software/hardware workstation class… έχω μείνει και εγώ με την ξινίλα… ίδια περσινά σταφύλια. Ακριβοπληρωμένες επαγγελματικές κάρτες, και software που ανανεώνουν το Interface τους μόνον. Ενώ “”συνολικά”” οι επιδώσεις παραγωγικότητας παραμένουν σταθερές εάν συνυπολογίσει κάνεις και το τελικό αποτέλεσμα – Δηλαδή, τρία χρόνια πριν μας έπαιρνε δυο μέρες να κάνουμε μια δουλειά. Σήμερα το κάνουμε πάλι σε δυο μέρες απλά έχοντας target 1080π anti 720p ROLF

 

oneofthem, μου κίνησες την περιέργεια… τι χρησιμοποιείς? Λ.χ. εγώ ακόμα περιμένω το vray OpenCL , και ελπίζω όταν θα έρθει να εκμεταλλεύεται επαρκώς και cpu και gpu και όχι μόνο ένα εκ των δύο και να έχω και μικτή φάρμα για να μη πετάω παλαιό hardware…

 

Συνολικά και καταλήγοντας, οι επαγγελματίες θα επιζητούν πάντα και τυποποίηση και ταχύτητα, γιατί η δουλειά τους αλλάζει καθημερινά.

Δημοσ.

παιδια λυπαμαι αλλα εχασα την μπαλα, εχω απο το λύκειο να διαβασω τοσο μεγαλες "εκθεσεις" :-D

και δεν βγαζει και το 2ο μερος ο TOM να επανέλθουμε :mad:

Δημοσ.
( πωπω σεντονάρες ο Ailuros... ρε μπας και είσαι ο wash με 2ο account :P )

 

Δεν τον ξέρω τον κύριο και εμφανίζομαι με το ίδιο ψευδώνυμο σε όλα τα fora.

 

tmjuju,

 

Συνεχίζουμε domani. Πάει για νάνι τώρα ο γάτος.

Αρχειοθετημένο

Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...