bedazzled Δημοσ. 3 Οκτωβρίου 2016 Δημοσ. 3 Οκτωβρίου 2016 (επεξεργασμένο) Τα low level APIs όπως το DX12 έχουν το μεγάλο προτέρημα ότι βοηθάνε να εκμεταλλευτεί ένας δημιουργός παιχνιδιών τους υπάρχοντες πόρους από πλευράς CPU και GPU. Η πραγματική αλήθεια είναι ότι τα low level APIs έρχονται να βοηθήσουν τους επεξεργαστές και μονάδες γραφικών της AMD περισσότερο στο να εκμεταλλευτούν την πλειοψηφία των πόρων τους όσο καλύτερα γίνεται. Αυτό δεν σημαίνει ότι οι πράσινες έχουν κάποια αδυναμία συνολικά ή ότι έχει γίνει πάρα πολύ συγκεκριμένη βελτιστοποίηση (που μπορεί να χαρακτηριστεί και "φουστιά"), απλά όταν μια GeForce ξεπερνάει σε pipeline utilization το 90% σε οποιοδήποτε ΑΡΙ πριν τα low level θα ήθελα κάποιος με στοιχειώδη λογική να μου εξηγήσει τι παραπάνω θα μπορούσαν να βγάλουν. ΄Ολα αυτά βέβαια δεν αφορούν άλλα προτερήματα ή μειονεκτήματα της κάθε αρχιτεκτονικής, απλά βαρέθηκα να διαβάζω ότι η μια είναι ραμμένη για DX11 και η άλλη για DX12...... Έχεις κάποια άλλη εξήγηση γιατί το Quantum Break παίζει καλύτερα με DX11 στις nVidia; Γιατί τελευταία βάζουν Async toggle σε κάποια παιχνίδια; Χαλάει κανέναν το 90% να γίνει 99-100% γεμίζοντας τα κενά με compute tasks* (π.χ. physics); * http://www.nvidia.com/content/kepler-compute-architecture/images/emeai/large-video-hyper-q-2-en.jpg Εδώ μάλιστα λέει ότι η nVidia κάποτε είχε hardware scheduler, αλλά τον ξήλωσε για να αυξήσει το efficiency και κατ' επέκταση τις επιδόσεις στα ήδη υπάρχοντα παιχνίδια: https://forums.geforce.com/default/topic/873236/geforce-900-series/dx-12-support-/post/4665086/#4665086 Για τα περί «φουστιάς» και επειδή βλέπω πολλοί λένε ότι είναι «άδικο» να φτιάχνονται τα παιχνίδια με βάση το Async της GCN (έχω βαρεθεί να το ακούω, ειδικά όταν κάποιοι αδυνατούσαν να δουν το big picture*, όπως έχεις βαρεθεί εσύ άλλα πράγματα), να σου θυμίσω ένα άλλο μεγάλο feature που ήρθε πριν πάνω από 15 χρόνια και μετέφερε tasks από την CPU στην GPU: το hardware T&L με το DX7. Άραγε ήταν και τότε «άδικο» που οι Voodoo & Kyro δεν υποστήριζαν T&L και τις έφαγε το μαύρο σκοτάδι μόλις το DX7 έγινε mainstream; * http://www.extremetech.com/gaming/150892-nvidia-gave-amd-ps4-because-console-margins-are-terrible http://gamingbolt.com/amd-nvidias-claim-of-low-profit-in-console-business-seems-a-bit-like-sour-grapes-to-me Τότε πολλοί έδιναν kudos στην nVidia (η οποία τότε ζούσε στην σκιά της 3DFX, σαν να λέμε ο underdog της εποχής) για το future-proof design της GeForce 256. Άλλοι πάλι δόξαζαν την 3DFX και έλεγαν ότι μια αρκούντως ισχυρή CPU (μας θυμίζει κάτι αυτό άραγε?) αρκεί για να αναλάβει το βάρος του T&L, οπότε μια χαρά είμαστε, «άχρηστες» οι GeForce (οι πρώτες που εισήγαγαν τον όρο "GPU"). Εξάλλου τα περισσότερα παιχνίδια τότε δεν υποστήριζαν DX7 (ούτε αυτό μας θυμίζει κάτι?), αλλά DX6 ή Glide. Φαντάσου λοιπόν να είχαμε μείνει κολλημένοι στα παλαιά APIs και τα παιχνίδια να μην είχαν υιοθετήσει το hardware T&L που έδωσε την δυνατότητα για μεγαλύτερη γεωμετρία και πλουσιότερους κόσμους (next-gen άλμα), χωρίς να γονατίζει η CPU (τώρα νομίζω είναι εμφανέστατο το dejavu). Δεν χαλάει κανέναν η CPU να αναλάβει άλλου είδους tasks αντί να ασχολείται με πράγματα που μπορεί να κάνει η GPU καλύτερα & γρηγορότερα. Αυτό το πράγμα γίνεται εδώ και μια 20ετία σχεδόν. Κάποτε όλα γίνονταν μέσω της CPU (software rendering), πριν έρθουν οι 3D accelerators. Προσωπικά δίνω εύσημα σε όποιον πάει την βιομηχανία μπροστά, είτε αυτό λέγεται hardware T&L, είτε programmable shaders, είτε hardware schedulers για GPGPU. Πότε είναι η nVidia, πότε είναι η AMD, τι να κάνουμε τώρα. Η GCN είναι κομμένη και ραμμένη για Mantle και τα ξαδερφάκια του (DX12, Vulkan). Δεν καταλαβαίνω γιατί είναι κακό να λέμε τα πράγματα με το όνομα τους. Και η GeForce 256 ήταν κομμένη και ραμμένη για DX7. Σόρρυ που δεν μπορώ να πω το ίδιο για τις Maxwell/Pascal, ούτε καταλαβαίνω γιατί θα πρέπει να γινόμαστε "triggered". Software driver hacks του τύπου «κάνω emulation των schedulers μέσω CPU» εννοείται ότι δεν τα λαμβάνω υπόψιν, με την ίδια λογική που δεν έπαιρνα στα σοβαρά τα software T&L και vertex shaders μέσω CPU παλαιότερα (για όσους θυμούνται ποιές εταιρίες τα έκαναν αυτά). Όσο γαμάτοι και να είναι οι drivers (που ομολογουμένως η nVidia έχει αρκετή εμπειρία), ποτέ δεν θα φτάσουν το native hardware support. Ιστορικά πάντα ένας φέρνει την καινοτομία και οι υπόλοιποι τον αντιγράφουν (στην αρχή ανεπιτυχώς και στην πορεία ισιώνει το πράγμα). Το ίδιο θα μπορούσα να πω και για το AMD64 (γνωστό και ως x86-64/EM64T). Στην αρχή η Intel ήταν διστακτική (ειδικά όταν είχε ρίξει κεφάλαια στον Itanium) και στην πορεία αναγκάστηκε να ακολουθήσει, έστω κι αν τα πρώτα revisions του EM64T δεν ήταν ιδανικά (έλειπαν κάποιες εντολές <-- άλλο ένα dejavu). Όσον αφορά τις GPUs, θα μπορούσε και η AMD να είχε μείνει στο παλιό της VLIW design (βλ. Radeon 4xxx/5xxx/6xxx) και σήμερα να το είχαμε με die shrink στα 14nm... θα ήταν πιο efficient για 3D graphics και μόνο. Για compute ή πιο σωστά για mixed tasks είναι πιο efficient η GCN. Γι' αυτό εγκατέλειψαν το VLIW, γιατί το μέλλον είναι στο Compute. Νόμιζα ότι αυτά είναι κοινή γνώση. Όσον αφορά το feature set, επειδή προβλέπω ότι θα γίνει νύξη περί DX12 != Async (χαίρω πολύ χαιρόπουλος), πάντα σε κάθε νέο DirectX (ή πιο σωστά Direct3D) υπάρχει ένα σημαντικό feature (βλ. DX7 T&L, DX8 programmable shaders, DX12 Async) και διάφορα άλλα δευτερεύοντα. Εν πάσει περιπτώσει το νόημα του παραπάνω post είναι ότι μέρος των extra transistors οφείλεται στα ACEs μεταξύ άλλων. Όταν η nVidia (ξανα)βάλει hardware schedulers έτσι ώστε να μην βλέπουμε slow downs σε DX12 (με Async), τότε θα δούμε που θα κυμανθεί το transistor count και η κατανάλωση. Πάντως το tile-based rendering (το είχε κάποτε η PowerVR Kyro με αξιοσέβαστες επιδόσεις, αλλά δεν άντεξε τον ανταγωνισμό λόγω T&L adoption) σίγουρα είναι μεγάλο ατού της πράσινης, δεδομένου κιόλας ότι είναι backwards compatible με τα υπάρχοντα παιχνίδια χωρίς να ασχοληθεί ο προγραμματιστής (σε αντίθεση με τα καλούδια του DX12). Τέλος, η υπάρχουσα κατάσταση με τα high-level APIs και τα driver optimizations βολεύει κάποιους developers. Δεν θέλουν όλοι να αλλάξει το status quo, ειδικά όταν απαιτεί παραπάνω κόπο εκ μέρους τους. Υπάρχουν βέβαια και άλλοι που εδώ και χρόνια ζητάνε low-level access. Επεξ/σία 3 Οκτωβρίου 2016 από bedazzled 4
Ailuros Δημοσ. 4 Οκτωβρίου 2016 Μέλος Δημοσ. 4 Οκτωβρίου 2016 Για αυτό και εγώ δεν στέκομαι συνήθως σε ολόκληρο το DX12 To async για παράδειγμα μας έρχεται από την κληρονομία του οράματος ότι cpu και gpu είναι ισότιμα. Και ότι ειδικά σε παράλληλα tasks δεν είναι απαραίτητο το cpu να έχει πλατιές μονάδες, εάν η συνέργεια με τη gpu είναι δεδομένη, low latency και efficient. Το low level κομμάτι ειδικά σε ότι είχε να κάνει με draw calls, μας έρχεται σήμερα ως διόρθωση ενός από τα μεγάλα προβλήματα του DX9-11 Γενικά παρά τη γκρίνια για την AMD , σε επίπεδο οράματος έχουν προσφέρει πολλά, που ακόμα και σήμερα δεν είναι realized. Θα έλεγα μάλιστα ότι υπάρχει και μεγάλη διαφορά στην κουλτούρα των amd/nV. Δείτε πόσα proprietary σπρώχνει η nV , και από την άλλη ότι οι περισσότερες προσπάθειες την AMD προσφέρονται και σε open-standards μορφή. Φυσικά αυτό δείχνει και τα οικονομικά και άλλα προβλήματα της AMD (execution in general etc.) δεν είναι μονο προτέρημα αλλα και αδυναμία Τώρα για το DX12 απλά η MS έκανε ότι μπορούσε και είναι μεν εάν βήμα, άλλα βήμα άτεχνο, που προσπαθεί να περάσει πολλούς νεοτερισμούς, αλλά καταλήγει σε μπλέξιμο καθώς έπρεπε να απορροφήσουν ταυτόχρονα πολλά technology trends , χωρίς αρκετό χρόνο για total redesign. Για να γίνω πιο κατανοητός, DX13 θα δούμε ? Κανείς δεν ξέρει στην MS. Γιατι θα έπρεπε κανονικά να δώσουν πρώτα όραμα, να ξεκινήσουν με νέο design , και αργότερα να μας παρουσιάσουν το σχέδιο τους. Αμ δε… μόνο εάν συμβούν συνταρακτικές αλλαγές που θα προέρχονται από το HW ή και από devs, μπορεί να καταλάβουν στο μέλλον τι χρειάζονται…. Και τότε απλά θα έρθουν να πατσάρουν άλλες δυο τεχνολογίες. Δεν έδρασαν με σχέδιο στο DX12 –αλλά από αντανακλαστικά - και ούτε σήμερα δεν έχουν σχέδιο. Και να υπήρχε θετική απάντηση για τον ακόλουθο το DX12 θα έφερνε ΤΙ ακριβώς; Αν η Microsoft σφυρίζει κλέφτικα και αδιαφορεί για ΑΡΙ update και το ίδιο και οι IHV (γιατί για την ώρα δεν υπάρχει κάτι που να θέλουν να έχουν να προσθέσουν), γιατί να ασχοληθούν; Έχεις κάποια άλλη εξήγηση γιατί το Quantum Break παίζει καλύτερα με DX11 στις nVidia; Γιατί τελευταία βάζουν Async toggle σε κάποια παιχνίδια; Χαλάει κανέναν το 90% να γίνει 99-100% γεμίζοντας τα κενά με compute tasks* (π.χ. physics); * http://www.nvidia.com/content/kepler-compute-architecture/images/emeai/large-video-hyper-q-2-en.jpg Εδώ μάλιστα λέει ότι η nVidia κάποτε είχε hardware scheduler, αλλά τον ξήλωσε για να αυξήσει το efficiency και κατ' επέκταση τις επιδόσεις στα ήδη υπάρχοντα παιχνίδια: https://forums.geforce.com/default/topic/873236/geforce-900-series/dx-12-support-/post/4665086/#4665086 Το DX12 δεν ισούται με async compute. Μάλλον θα χρειαστεί να διαβάσεις για άλλη μια φορά την προηγούμενη συμμετοχή μου για εξαιρώ ρητά τα οποιαδήποτε προτερήματα έχει η εκάστοτε αρχιτεκτονική. Επικεντρώθηκα κυρίως στα οφέλη που φέρνουν ΟΛΑ τα low level API και εφόσον οι GeForce εδώ και γενιές έχουν καλύτερο pipeline utilization σε σχέση με τον ανταγωνισμό τους είναι και φυσικό γενικά να έχουν μικρότερα οφέλη. (΄Οπου το τονισμένο αντιπροσωπεύει μεταξύ άλλων την μεγαλύτερη επάρκεια ανά FLOP ή αν θέλεις στα ALUs για να το κρατήσουμε όσο πιο απλό γίνεται). Τότε πολλοί έδιναν kudos στην nVidia (η οποία τότε ζούσε στην σκιά της 3DFX, σαν να λέμε ο underdog της εποχής) για το future-proof design της GeForce 256. Άλλοι πάλι δόξαζαν την 3DFX και έλεγαν ότι μια αρκούντως ισχυρή CPU (μας θυμίζει κάτι αυτό άραγε?) αρκεί για να αναλάβει το βάρος του T&L, οπότε μια χαρά είμαστε, «άχρηστες» οι GeForce (οι πρώτες που εισήγαγαν τον όρο "GPU"). Εξάλλου τα περισσότερα παιχνίδια τότε δεν υποστήριζαν DX7 (ούτε αυτό μας θυμίζει κάτι?), αλλά DX6 ή Glide. Φαντάσου λοιπόν να είχαμε μείνει κολλημένοι στα παλαιά APIs και τα παιχνίδια να μην είχαν υιοθετήσει το hardware T&L που έδωσε την δυνατότητα για μεγαλύτερη γεωμετρία και πλουσιότερους κόσμους (next-gen άλμα), χωρίς να γονατίζει η CPU (τώρα νομίζω είναι εμφανέστατο το dejavu). Δεν χαλάει κανέναν η CPU να αναλάβει άλλου είδους tasks αντί να ασχολείται με πράγματα που μπορεί να κάνει η GPU καλύτερα & γρηγορότερα. Αυτό το πράγμα γίνεται εδώ και μια 20ετία σχεδόν. Κάποτε όλα γίνονταν μέσω της CPU (software rendering), πριν έρθουν οι 3D accelerators. Προσωπικά δίνω εύσημα σε όποιον πάει την βιομηχανία μπροστά, είτε αυτό λέγεται hardware T&L, είτε programmable shaders, είτε hardware schedulers για GPGPU. Πότε είναι η nVidia, πότε είναι η AMD, τι να κάνουμε τώρα. ΄Ολα αυτά τώρα τι σχέση έχουν ακριβώς με την εν λόγω συζήτηση ακριβώς; Πληροφοριακά οι μονάδες T&L (όπως και πολλά άλλα) προυπήρχαν σε άλλες αγορές προ πολλού (το Naomi2/PowerVR σε Arcade είχε T&L μονάδα πολύ πριν την GF256) και είναι σαν να μου λες ότι η 3dfx έχει εφεύρει το antialiasing. Η GCN είναι κομμένη και ραμμένη για Mantle και τα ξαδερφάκια του (DX12, Vulkan). Δεν καταλαβαίνω γιατί είναι κακό να λέμε τα πράγματα με το όνομα τους. Και η GeForce 256 ήταν κομμένη και ραμμένη για DX7. Σόρρυ που δεν μπορώ να πω το ίδιο για τις Maxwell/Pascal, ούτε καταλαβαίνω γιατί θα πρέπει να γινόμαστε "triggered". Software driver hacks του τύπου «κάνω emulation των schedulers μέσω CPU» εννοείται ότι δεν τα λαμβάνω υπόψιν, με την ίδια λογική που δεν έπαιρνα στα σοβαρά τα software T&L και vertex shaders μέσω CPU παλαιότερα (για όσους θυμούνται ποιές εταιρίες τα έκαναν αυτά). Όσο γαμάτοι και να είναι οι drivers (που ομολογουμένως η nVidia έχει αρκετή εμπειρία), ποτέ δεν θα φτάσουν το native hardware support. Γιατί πολύ απλά δεν στέκει σε τεχνική βάση και όχι δεν θα σταθεί επειδή εσένα τυγχάνει εσένα να σε βολεύει σαν εξήγηση. Φυσικά και είχε λόγους η AMD να πιέσει έμμεσα με Mantle για DX12, αλλά ήταν προς απόλυτο όφελός της τόσο για CPU, GPU, APU και semi custom console APUs. Ξέρεις πως δημιουργείται ένα ΑΡΙ και συγκεκριμένα το DirectX; Τέλος, η υπάρχουσα κατάσταση με τα high-level APIs και τα driver optimizations βολεύει κάποιους developers. Δεν θέλουν όλοι να αλλάξει το status quo, ειδικά όταν απαιτεί παραπάνω κόπο εκ μέρους τους. Υπάρχουν βέβαια και άλλοι που εδώ και χρόνια ζητάνε low-level access. Οι ISVs ζητάνε και οι IHV εκτελούν σε μελλοντικά ΑΡΙs όσα μπορούν και συγκεκριμένα σε οτιδήποτε DirectX σε ότι συναποφασίσει η ίδια η Microsoft. Υπήρξε η ανάγκη για low level APIs και αναγκάστηκε να το αναγνωρίσει και η Microsoft γιατί ήδη η Apple παράλληλα με το Mantle δημιουργούσε το iOS Metal όπως φυσικά και από πλευράς Google/Android όλοι οι ενδιαφερόμενοι για Vulkan. Kανένα ΑΡΙ δεν δημιουργείται σε λίγο χρόνο, οπότε η M$ παρακινήθηκε από πλείστους παράγοντες να πάει σε DX12 και από την AMD αλλά και από άλλους παράγοντες όλων των υπόλοιπων αγορών που έδειχναν μια πολύ ξεκάθαρη τάση/κατεύθυνση για low level APIs. Kαι για να μην ξεχνιόμαστε το Vulkan είναι API που δημιουργείται από ανεξάρτητη επιτροπή και αποτελεί την ενοποίηση των δύο κόσμων OpenGL/desktop/professional markets <-> OpenGL_ES/ULP mobile SoC market οπότε τα συμφέροντα εδώ ήταν είναι και θα είναι παρασάγγης μεγαλύτερα από ότι είναι σε οτιδήποτε desktop και μόνο. 1
Psycho_Warhead Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Ετοιμάζουν το Deus Ex: Mankind Divided με Metal API, είμαι περίεργος για το πως θα τρέχει εκεί.
tmjuju Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Kαι για να μην ξεχνιόμαστε το Vulkan είναι API που δημιουργείται από ανεξάρτητη επιτροπή και αποτελεί την ενοποίηση των δύο κόσμων OpenGL/desktop/professional markets <-> OpenGL_ES/ULP mobile SoC market οπότε τα συμφέροντα εδώ ήταν είναι και θα είναι παρασάγγης μεγαλύτερα από ότι είναι σε οτιδήποτε desktop και μόνο. H OpenGL εδώ και ένα δύο χρόνια μπήκε στην βαθιά κατάψυξη. Λίγο ES ή WebGL μπορεί να δούμε να εξελίσσονται, αλλά λίγο. Vulcan all the way παντού – στα βήματα του mantle Το DX12 απλά μπορεί να κοιμηθεί όπως και η OpenGL, όσο τα υπόλοιπα open APIs θα εξελίσσονται.
Ailuros Δημοσ. 4 Οκτωβρίου 2016 Μέλος Δημοσ. 4 Οκτωβρίου 2016 Ετοιμάζουν το Deus Ex: Mankind Divided με Metal API, είμαι περίεργος για το πως θα τρέχει εκεί. ΄Οσες τέτοιες μεταφορές έχω δει είναι άκρως απογοητευτικές. Σε σύγκριση με οτιδήποτε άλλο mobile μάλλον καλύτερο, αλλά για τους κακομαθημένους του desktop = "τράτζικ". H OpenGL εδώ και ένα δύο χρόνια μπήκε στην βαθιά κατάψυξη. Λίγο ES ή WebGL μπορεί να δούμε να εξελίσσονται, αλλά λίγο. Vulcan all the way παντού – στα βήματα του mantle Το DX12 απλά μπορεί να κοιμηθεί όπως και η OpenGL, όσο τα υπόλοιπα open APIs θα εξελίσσονται. Το Vulkan είναι ο ακόλουθος των τελευταίων εκδόσεων OGL & OGL_ES και η επίσημη ενοποίησή τους. ΄Οχι ότι αφορά την ενότητα αλλά το Vulkan βοηθάει αρκετά τους tilers σαν ΑΡΙ που αποτελούν άλλωστε και την κραυγαλέα πλειοψηφία σε ULP SoC (QCOM Adreno, ARM Mali, PowerVR). Aν αναλογιστείς ότι το Vulkan θα τρέχει αναγκαστικά και σε iOS, για την ώρα είμαστε ήδη στα 1.3 δις smartphones ανά χρόνο. Με την πάροδο του χρόνου θα αφορά τις περισσότερες συσκευές παγκόσμια και εδώ ακριβώς ήταν ένας από τους μεγαλύτερους πονοκεφάλους της Microsoft, ένα παραπάνω σε συνδυασμό με την παταγώδη αποτυχία οτιδήποτε windows phone / ULP mobile. 1
bedazzled Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 1) Το DX12 δεν ισούται με async compute. Μάλλον θα χρειαστεί να διαβάσεις για άλλη μια φορά την προηγούμενη συμμετοχή μου για εξαιρώ ρητά τα οποιαδήποτε προτερήματα έχει η εκάστοτε αρχιτεκτονική. Επικεντρώθηκα κυρίως στα οφέλη που φέρνουν ΟΛΑ τα low level API και εφόσον οι GeForce εδώ και γενιές έχουν καλύτερο pipeline utilization σε σχέση με τον ανταγωνισμό τους είναι και φυσικό γενικά να έχουν μικρότερα οφέλη. (΄Οπου το τονισμένο αντιπροσωπεύει μεταξύ άλλων την μεγαλύτερη επάρκεια ανά FLOP ή αν θέλεις στα ALUs για να το κρατήσουμε όσο πιο απλό γίνεται). 2) ΄Ολα αυτά τώρα τι σχέση έχουν ακριβώς με την εν λόγω συζήτηση ακριβώς; Πληροφοριακά οι μονάδες T&L (όπως και πολλά άλλα) προυπήρχαν σε άλλες αγορές προ πολλού (το Naomi2/PowerVR σε Arcade είχε T&L μονάδα πολύ πριν την GF256) και είναι σαν να μου λες ότι η 3dfx έχει εφεύρει το antialiasing. 3) Γιατί πολύ απλά δεν στέκει σε τεχνική βάση και όχι δεν θα σταθεί επειδή εσένα τυγχάνει εσένα να σε βολεύει σαν εξήγηση. Φυσικά και είχε λόγους η AMD να πιέσει έμμεσα με Mantle για DX12, αλλά ήταν προς απόλυτο όφελός της τόσο για CPU, GPU, APU και semi custom console APUs. 1) Και να πω ότι δεν απάντησα pre-emptively; «Όσον αφορά το feature set, επειδή προβλέπω ότι θα γίνει νύξη περί DX12 != Async (χαίρω πολύ χαιρόπουλος), πάντα σε κάθε νέο DirectX (ή πιο σωστά Direct3D) υπάρχει ένα σημαντικό feature (βλ. DX7 T&L, DX8 programmable shaders, DX12 Async) και διάφορα άλλα δευτερεύοντα.» 2) Μάλλον δεν κατάλαβες τι γράφω και γιατί το γράφω. Είπα ότι δεν υπήρχε T&L πριν την nVidia; Είναι σαν λέμε ότι δεν υπήρχαν smartphones πριν βγάλει η Apple το iPhone... Σαφώς και υπήρχε T&L σε ξεχωριστά chipάκια (ακόμα και το αρχαίο PlayStation 1 είχε dedicated μονάδα στην CPU) και ενίοτε με απλησίαστο κόστος για τους κοινούς θνητούς (επαγγελματικές κάρτες γραφικών). Η GeForce 256 όμως το έκανε mainstream βάζοντας το στο ίδιο chip και συνεπώς πήγε μπροστά την βιομηχανία. Δεν ξέρω γιατί διαφωνείς σε αυτό. 3) Το ότι η AMD έχει CPUs με χαμηλότερο IPC δεν αναιρεί τα οφέλη του Mantle/DX12/Vulkan/Metal (η ονομασία δεν έχει σημασία, η ουσία κατά 99% είναι ίδια). Το ότι κάποιος έχει i7 CPU δεν σημαίνει ότι είναι σωστό να τον φορτώνει με physics, όταν μια GPU μπορεί να κάνει την ίδια δουλειά καλύτερα & γρηγορότερα... Επειδή έχω ζήσει την εξέλιξη των 3D graphics processors από την αρχή, τα ίδια επιχειρήματα άκουγα και τότε. Γι' αυτό έκανα την ιστορική αναδρομή. Και ο Pentium κάποτε (μέσα 90s) γ@μούσε κι έδερνε, 3DFX Voodoo είχαν ελάχιστοι στις αρχές, άρα γιατί τα παιχνίδια να φτιάχνονται με αυτή ως βάση; Software rendering και τα μυαλά στα κάγκελα. Ευτυχώς η βιομηχανία πήγε μπροστά.
Ailuros Δημοσ. 4 Οκτωβρίου 2016 Μέλος Δημοσ. 4 Οκτωβρίου 2016 1) Και να πω ότι δεν απάντησα pre-emptively; «Όσον αφορά το feature set, επειδή προβλέπω ότι θα γίνει νύξη περί DX12 != Async (χαίρω πολύ χαιρόπουλος), πάντα σε κάθε νέο DirectX (ή πιο σωστά Direct3D) υπάρχει ένα σημαντικό feature (βλ. DX7 T&L, DX8 programmable shaders, DX12 Async) και διάφορα άλλα δευτερεύοντα.» Nαι και; Αυτό που ΔΕΝ λες να καταλάβεις είναι ότι δεν κατάλαβες λέξη από ότι έγραψα. 2) Μάλλον δεν κατάλαβες τι γράφω και γιατί το γράφω. Είπα ότι δεν υπήρχε T&L πριν την nVidia; Είναι σαν λέμε ότι δεν υπήρχαν smartphones πριν βγάλει η Apple το iPhone... Σαφώς και υπήρχε T&L σε ξεχωριστά chipάκια (ακόμα και το αρχαίο PlayStation 1 είχε dedicated μονάδα στην CPU) και ενίοτε με απλησίαστο κόστος για τους κοινούς θνητούς (επαγγελματικές κάρτες γραφικών). Η GeForce 256 όμως το έκανε mainstream βάζοντας το στο ίδιο chip και συνεπώς πήγε μπροστά την βιομηχανία. Δεν ξέρω γιατί διαφωνείς σε αυτό. Είναι άσχετο και τεχνολογικά ανακριβής. 3) Το ότι η AMD έχει CPUs με χαμηλότερο IPC δεν αναιρεί τα οφέλη του Mantle/DX12/Vulkan/Metal (η ονομασία δεν έχει σημασία, η ουσία κατά 99% είναι ίδια). Το ότι κάποιος έχει i7 CPU δεν σημαίνει ότι είναι σωστό να τον φορτώνει με physics, όταν μια GPU μπορεί να κάνει την ίδια δουλειά καλύτερα & γρηγορότερα... Επειδή έχω ζήσει την εξέλιξη των 3D graphics processors από την αρχή, τα ίδια επιχειρήματα άκουγα και τότε. Γι' αυτό έκανα την ιστορική αναδρομή. Και ο Pentium κάποτε (μέσα 90s) γ@μούσε κι έδερνε, 3DFX Voodoo είχαν ελάχιστοι στις αρχές, άρα γιατί τα παιχνίδια να φτιάχνονται με αυτή ως βάση; Software rendering και τα μυαλά στα κάγκελα. Ευτυχώς η βιομηχανία πήγε μπροστά. Και εγώ εκεί ήμουν εκεί με ενεργές και άμεσες συνδέσεις με τις εκάστοτε εταιρείες. Ναι και; Θεωρείς ότι με το να περιττολογείς και να προσθέτεις οτιδήποτε άσχετο θυμηθείς ενισχύεται οποιοδήποτε ανύπαρκτο επιχείρημα; Το DX12 συνδημιουργήθηκε από όλους τους ενεργούς graphics ΙΗVs και την τελική απόφαση την πήρε η Microsoft για τα επί μέρους σημεία αυτού όπου υπήρχαν διαφορές απόψεων. Δεν απείχε η πράσινη αυτής και εξακολουθούν οι GeForce να έχουν καλύτερο pipeline utilization ακόμα και αν θυμηθείς και την Rendition3D ή οτιδήποτε άλλο άσχετο στοιχείο. Tέλος το DX12 και οποιοδήποτε low level API είναι προς απόλυτο όφελος ΟΛΩΝ των εταιρειών μηδενός εξαιρουμένου ακριβώς γιατί τα ΑPI δεν δημιουργούνται σε κενό αέρος. Μπορούμε τώρα να επιστρέψουμε στο ουσιαστικό θέμα ή θα διυλίζουμε τον κώνωπα για πολύ ακόμα;
bedazzled Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Καλά, ό,τι πεις. Όσοι τα έχουν ζήσει, καταλαβαίνουν πολύ καλά τι εννοώ. ΥΓ: Στείλε PM αν θες να εξηγήσεις τις τεχνολογικές «ανακρίβειες» εφόσον το θεωρείς offtopic. Αν και ο καθένας με λίγο ψάξιμο μπορεί να τα επιβεβαιώσει και μόνος του...
Ailuros Δημοσ. 4 Οκτωβρίου 2016 Μέλος Δημοσ. 4 Οκτωβρίου 2016 Ναι γιατί απέχει "αιώνες" η δεκαετία του 90 και για κάποιο περίεργο λόγο θεωρείς μάλλον ότι είσαι και ο γηραιότερος όλων. Για να ευθυμήσουμε λίγο για όσους ΔΕΝ το ξέρουν η καταραμένη NVIDIA είναι η πραγματική "γηραιότερη" όλων: http://www.fudzilla.com/news/graphics/41746-fun-historical-fact-for-amd-fanboys
bedazzled Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Αν βλέπεις fanboys αγαπητέ μου, αυτό είναι δικό σου θέμα. Εγώ ανέφερα και τις καινοτομίες που έφερε η nVidia (T&L, programmable shaders) στο PC. Δεν επιθυμώ να συνεχίσω την συζήτηση όταν βρίσκω passive aggressive υφάκι απέναντι μου, ειδικά όταν η ροή της συζήτησης είναι καραπροβλέψιμη.
Ailuros Δημοσ. 4 Οκτωβρίου 2016 Μέλος Δημοσ. 4 Οκτωβρίου 2016 Αν βλέπεις fanboys αγαπητέ μου, αυτό είναι δικό σου θέμα. Εγώ ανέφερα και τις καινοτομίες που έφερε η nVidia (T&L, programmable shaders) στο PC. Δεν επιθυμώ να συνεχίσω την συζήτηση όταν βρίσκω passive aggressive υφάκι απέναντι μου, ειδικά όταν η ροή της συζήτησης είναι καραπροβλέψιμη. Aν δεν έχεις στοιχειώδη αίσθηση του χιούμορ και βλέπεις φαντάσματα παντού και παρερμηνεύεις και τα πάντα δεν σου φταίει κανείς. Ελεύθερα να το λύσεις με τον εαυτό σου, εγώ δεν καλλιεργώ συναισθήματα με μερικές γραμμές στην οθόνη μου.
Occultist Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Καλά όλα τα παραπάνω. Και, μέσες άκρες, γνωστά, για όσους τα έχουμε παρακολουθήσει κάπως πιο στενά. Κάτι πιο συγκεκριμένο για ημερομηνία κυκλοφορίας του Vega, έχουμε;
adtakhs Δημοσ. 4 Οκτωβρίου 2016 Δημοσ. 4 Οκτωβρίου 2016 Καλά όλα τα παραπάνω. Και, μέσες άκρες, γνωστά, για όσους τα έχουμε παρακολουθήσει κάπως πιο στενά. Κάτι πιο συγκεκριμένο για ημερομηνία κυκλοφορίας του Vega, έχουμε; Αν δεν έρθει ZEN .... VEGA δεν βλέπεις. Ξέρει κανείς αν το VEGA θα φτιάχνεται από GLOFO ή TSMC ? Γιατί η AMD πρόσφατα έσπασε το συμβόλαιο αποκλειστικής συνεργασίας με την GLOFO ..... Από την άλλη δείγματα της 1050 της nvidia με παραγωγή SAMSUNG φαίνεται να μην ανεβάζουν ρολόγια .... οπότε λέω μπας και ?
Ailuros Δημοσ. 5 Οκτωβρίου 2016 Μέλος Δημοσ. 5 Οκτωβρίου 2016 Καλά όλα τα παραπάνω. Και, μέσες άκρες, γνωστά, για όσους τα έχουμε παρακολουθήσει κάπως πιο στενά. Κάτι πιο συγκεκριμένο για ημερομηνία κυκλοφορίας του Vega, έχουμε; Αρχές του 17' με μια μικρή πιθανότητα ενός paper launch πριν ψοφήσει το 16'. Αν δεν έρθει ZEN .... VEGA δεν βλέπεις. Ξέρει κανείς αν το VEGA θα φτιάχνεται από GLOFO ή TSMC ? Γιατί η AMD πρόσφατα έσπασε το συμβόλαιο αποκλειστικής συνεργασίας με την GLOFO ..... Από την άλλη δείγματα της 1050 της nvidia με παραγωγή SAMSUNG φαίνεται να μην ανεβάζουν ρολόγια .... οπότε λέω μπας και ? Οι δικές μου πληροφορίες (αν και απαρχαιωμένες) μιλούσαν για TSMC 16FF+. Aν όντως πάνε για συχνότητες της τάξης του 1.5GHz τότε η ζυγαριά φυσικά και γέρνει προς την μεριά της TSMC. Το τελευταίο που γράφεις για το 107 της πράσινης μεν είναι μια ένδειξη αλλά όχι απόδειξη. Η πράσινη δεν πουλάει πια και τόσο πολλές GP107 για να αξίζει τον κόπο να χώσουν "μαξιλαράκια" ανάμεσα στα transistors για μεγαλύτερους χρονισμούς. Eάν το προσπέρασαν απλά για να εξοικονομήσουν πόρους τότε δυστυχώς δεν αποδεικνύει τίποτα για την συμπεριφορά του 14LPP με υψηλότερες συχνότητες.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα