tmjuju Δημοσ. 7 Ιουλίου 2010 Μέλος Δημοσ. 7 Ιουλίου 2010 Η μ@λακία της υπόθεσης είναι ότι αν είχαμε proper multicore support του PhysX στα PhysX παιχνίδια, θα έβγαιναν ευνοημένοι και όσοι χρησιμοποιούν το GPU PhysX (όσοι κατεβάσετε το Fluidmark θα το διαπιστώσετε όταν βάλετε On/Off... υπήρχε και ένα πρώιμο πινακάκι παλιά). Ε ναι κάθε optimization για καλό μας είναι ;-) Και το sse (καθώς αυτό είναι και το κύριο εύρημα του άρθρου) δε ξέρω εάν θα βοηθούσε να αυξηθεί χ2 η ταχύτητα αλλά και 20% να ήταν θα ήταν καλά.
john2gr Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Μερικές επιπλέον διευκρινήσεις στα δύο κύρια θέματα που καίνε το PhysX 1. Huddy was attacking PhysX for not making proper use of multi-core CPUs through multithreading. He went as far as claiming that Ageia used to have this and nVidia deliberately disabled this to make their GPUs look better in physics acceleration. nVidia responded by explaining that PhysX supports multithreading (and there are various examples using multithreaded PhysX, such as 3DMark Vantage and Fluidmark), but the multithreading is not automated yet. The library is thread-safe, but developers have to manage the threads themselves. (it has always been like this, even back in the Ageia and NovodeX days, so nVidia did not disable anything, let alone deliberately. Huddy simply made some false accusations). nVidia is working on automated threading as part of the Apex framework, and this will be released with the upcoming PhysX 3.0 SDK. Που σημαίνει ότι αν έβαζαν τον κώλο τους κάτω οι games developers για να χρησιμοποιούν το PhysX multithreaded, θα είχαμε καλύτερα αποτελέσματα! 2. Kanter then makes claims about the gains that can be had from converting the code to SSE. He claims that SSE could quadruple performance in theory, and in reality a boost of more than 2x would be possible. Kanter claims that a modern optimizing compiler can easily vectorize the code for SSE automatically, and such gains could be had from just a recompile. So nVidia is just leaving all this performance on the table. What's more, if PhysX would indeed be 2-4 times faster on CPU, it would actually be a threat to GPU-accelerated physics. Kanter claims that PhysX is hobbled on the CPU, and that nVidia is deliberately doing this to make GPU physics look good. He suggests that this can be verified by compiling an open source physics library such as Bullet to x87 and SSE. Kanter however does not bother to actually perform the recompilation and publish the results to support his case. This is where experienced developers would get suspicious. Firstly, they will know from experience that it's not that simple to get such gains from SSE, especially not from just recompiling. Kanter's estimates sound about as optimistic and theoretical as Intel's own SSE marketing. And downloading and compiling Bullet will only take a few minutes, so why did Kanter not bother to do it himself? Or did he? Well, some developers figured that it was easy enough to make sure (the situation with Bullet is actually the reverse of PhysX. It compiles to SSE by default, with a few optimizations in the sourcecode aswell. The SSE switch and the optimizations in the sourcecode have to be disabled to compile to an x87 version. This means that Bullet is probably actually a more favourable case for SSE than PhysX would be). The results speak for themselves. Although there certainly is some performance left on the table by nVidia, it is nowhere near as dramatic as Kanter claimed. In synthetic tests, there is about 8% to be gained from recompiling. This is nowhere near the 2-4x figure that Kanter was using. In fact, 8% faster PhysX processing would mean even less than 8% higher framerates in games, since PhysX is not the only CPU-intensive task in a game. Perhaps the net gain in framerate would be closer to 3-4%, depending on the game. In other words, recompiling PhysX with SSE would not make CPUs threaten GPU physics. Not even close. The difference would be lost in the margin of error, most likely. Now, ofcourse one could go beyond just using a compiler, and manually optimize the code with SSE. But even then, it seems like 2-4x gains overall will be hard to achieve. Kanter’s claim that SSE uses 4-way packed arithmetic, and therefore can be up to 4 times as fast, is true. But this is a very theoretical figure, which is only true when you can actually use 4-way SIMD code without running into other bottlenecks. Certain parts of a physics library may certainly benefit considerably from SIMD, and speed up 3-4 times. But other factors such as calling overhead, branching, memory bottlenecks and thread synchronization will probably bring the overall performance gains down considerably. 4x gains would be extremely optimistic. 1.5-2x might be achievable with well-optimized code. However, this obviously requires a lot of code rewriting on nVidia’s behalf, and goes way beyond just ‘flicking a switch and recompile’ to get the ‘performance left on the table’ as Kanter suggests. Even so, assuming a completely hand-optimized PhysX runs twice as fast as it does today, it’s not going to be a replacement for GPU accelerated PhysX on the more high-end cards (at the end of the day, no matter how you slice it, the fastest GPUs have about an order of magnitude more GFLOPS of raw processing power than the fastest CPUs). Again, we are just talking about the physics workload, the overall framerate in a game will not double if only the physics run twice as fast while the rest of the code remains the same. Που σημαίνει ότι όλος ο κώδικας πρέπει να γραφτεί από την αρχή. Δεν έχει νόημα το re-compile. Και τα x87 instructions υπάρχουν από την εποχή της AGEIA έτσι, δεν είναι κάτι που έκανε η Nvidia. Εντούτοις θα ήθελα να γίνει σαν μετεξέλιξη του PhysX αυτή η αλλαγή, αν βέβαια βάλουν τον κώλο τους και πάλι κάτω οι games developers και προγραμματίζουν σωικά!
Luciddream Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 υπάρχει ακόμα κόσμος που ασχολείται με το physx...??
Nik.K Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Μπα.....Κανεις......Γιαυτο ακομα και οι κατοχοι καρτων της ATI ψαχνουν τροπους να εχουν και μια δευτερευων καρτα NVIDIA.........
Psycho_Warhead Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Το PhysX ειναι αρχαιος κωδικας........Ποτε δεν με τρελανε ουτε πριν που ειχα Ati (δεν το ζητουσα) ουτε και τωρα που εχω nVidia με ενδιαφερει.
Nik.K Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Οτι και να ειναι αυτη την στιγμη ειναι οτι καλυτερο στον συγκεκριμενο χωρο. Το HAVOK ειναι ακομα αστειο οπως ηταν.
Psycho_Warhead Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Εαν το βαλουν σωστα σε ενα παιχνιδι,χωρις να ζηταει GTX285(PhysX Dedicated) για να παιξει τοτε κατι θα λεει (γιατι ειναι αστειο το θεμα με την δευτερη καρτα).......
Ailuros Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Και οι πόντιοι παίρνουν δεύτερο πλυντήριο για να τοποθετήσουν την λεκάνη για μπουγάδα πάνω, αλλά δεν τους κατηγορώ. Πέρα από τα αστεία για κάποιους μπορεί να αξίζει η οποιαδήποτε επιπλέον επένδυση για PissX, για μένα προσωπικά αν και σαφώς θεωρώ ότι έχει μέλλον δεν αξίζει ακόμα επιπλέον επενδύσεις. Προσπαθούσανε να με πείσουμε ότι στο Batman = physics high προσθέτει στην ατμόσφαιρα για παράδειγμα. Been there, done that and no it didn't blow up my skirt. H οποιαδήποτε προσπάθεια δημιουργού παιχνιδιών να υπερτονίσει ότι "κοίτα ρε στραβούλιακα εδώ έχουμε ένα τόνο επιπλέον physics" μου κάνει όσο οι πρώτες γελοίες προσπάθειες με τα shaders να γυαλίζει και της μαιμούς ο πώλος. ΄Οταν ισορροπήσουν λίγο τα πράγματα στην εφαρμογή των physics και γίνει mainstream τότε το ξανασυζητάμε. Ως τότε όμως το πιθανότερο είναι να είναι μια high end GPU υπεραρκετή.
Luciddream Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Μπα.....Κανεις......Γιαυτο ακομα και οι κατοχοι καρτων της ATI ψαχνουν τροπους να εχουν και μια δευτερευων καρτα NVIDIA......... σαν κάτοχος καρτών ΑΤΙ μπορώ να σου πώ οτι κάτι τέτοιο δεν ισχύει... Οτι και να ειναι αυτη την στιγμη ειναι οτι καλυτερο στον συγκεκριμενο χωρο. Το HAVOK ειναι ακομα αστειο οπως ηταν. ναι είναι ότι καλύτερο στον συγκεκριμένο χώρο αλλα αυτήν την στιγμή ο συγκεκριμένος χώρος δεν έχει νόημα (ακόμα) και είναι θέμα χρόνου να βγεί κάτι καλύτερο Η να ανοίξει το physx προς ΑΤΙ. Πέρα από τα αστεία για κάποιους μπορεί να αξίζει η οποιαδήποτε επιπλέον επένδυση για PissX, για μένα προσωπικά αν και σαφώς θεωρώ ότι έχει μέλλον δεν αξίζει ακόμα επιπλέον επενδύσεις. δεν νομίζω οτι έχει και τόσο μέλλον.. (αν δεν αλλάξει πολιτική)
Psycho_Warhead Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Κοιτα,κατα τη γνωμη μου ειναι ενα + για την nVidia (παραμενει ομως marketing feature) τα καλα ειναι το 3D vision και το CUDA.
Ailuros Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 δεν νομίζω οτι έχει και τόσο μέλλον.. (αν δεν αλλάξει πολιτική) http://www.xbitlabs.com/news/other/display/20100921215150_Nvidia_and_Portland_Group_Announce_CUDA_C_x86_Compiler.html
pappous_soulis Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Οτι και να ειναι αυτη την στιγμη ειναι οτι καλυτερο στον συγκεκριμενο χωρο. Το HAVOK ειναι ακομα αστειο οπως ηταν. Δηλαδή τι παραπάνω προσφέρει από την Havok για να αξίζει τα φράγκα και τα watt μιας dedicated κάρτας? Εγώ όσα παιχνίδια έχω δοκιμάσει που να ενσωματώνουν physX μέχρι σήμερα δεν μου κάναν αίσθηση.
Nik.K Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Δηλαδή τι παραπάνω προσφέρει από την Havok για να αξίζει τα φράγκα και τα watt μιας dedicated κάρτας?Εγώ όσα παιχνίδια έχω δοκιμάσει που να ενσωματώνουν physX μέχρι σήμερα δεν μου κάναν αίσθηση. Παιξε παιχνιδια με HAVOK και παιχνιδια με PhysX να δεις στην πραξη. Φυσικα και το PhysX ειναι πιο βαρυ αλλα το αποτελεσμα αξιζει. Οσο για ΑΤΙ users που ψαχνουν να βρουν πως να εχουν και NVIDIA για PhysX καντε ενα search ακομα και εδω μεσα, θα βρειτε αρκετους.
Luciddream Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 http://www.xbitlabs.com/news/other/display/20100921215150_Nvidia_and_Portland_Group_Announce_CUDA_C_x86_Compiler.html ωραίος... τσακάλι ο Ailuros και πάλι όμως χωρίς να δούμε αποτελέσματα μπορεί αυτό να είναι απλά ένα "marketing trick" ... εννοώ οτι απτην στιγμή που θα τρέχει στην cpu μόνο τι μας λέει οτι θα είναι και γρήγορο...?? ίσως δεν θα αξιοποιείται καν σε games.. εκτώς και αν κατάλαβα λάθος... εγώ θα θέλω να το τρέξω στην καινούρια μου ΑΤΙ κάρτα (σε κανα 2-3 χρόνια λέμε τώρα) .. αν δεν γυρίσει σε openCL η directcompute δεν είναι κάπως άχρηστο...? edit: τώρα το είδα A big question is how well it is possible to recompile an originally x86 applications for CUDA architecture and vice versa. Intel is currently working on its MIC architecture that will result into explicitly multi-core x86 chips, which can potentially compete against Nvidia's graphics chips with hundreds of stream processors. ---------- Προσθήκη στις 16:49 ---------- Προηγούμενο μήνυμα στις 16:46 ---------- Οσο για ΑΤΙ users που ψαχνουν να βρουν πως να εχουν και NVIDIA για PhysX καντε ενα search ακομα και εδω μεσα, θα βρειτε αρκετους. καλα και search για το πώς θα κάνουν την cpu τους να τρέχει στους -20c θα βρείς, δεν λέει κάτι αυτό... το θέμα είναι οτι εμείς που ΔΕΝ το ψάχνουμε αυτό για κάποιον λόγο το κάνουμε... και εγώ δεν μίλησα για havok...
pappous_soulis Δημοσ. 23 Σεπτεμβρίου 2010 Δημοσ. 23 Σεπτεμβρίου 2010 Παιξε παιχνιδια με HAVOK και παιχνιδια με PhysX να δεις στην πραξη. Φυσικα και το PhysX ειναι πιο βαρυ αλλα το αποτελεσμα αξιζει. Έχω παίξει αρκετά. Μια φορά τα physics του Half Life 2 δεν τα έχω δει σε άλλο παιχνίδι. Άντε στο Crysis ξέρωγω. Οσο για ΑΤΙ users που ψαχνουν να βρουν πως να εχουν και NVIDIA για PhysX καντε ενα search ακομα και εδω μεσα, θα βρειτε αρκετους. Και τι με αυτό? Εδώ υπάρχουν πόσοι που κοιτάνε να τα πετάνε σε SLi και Crossfire τη στιγμή που με τα ίδια λεφτά παίρνουν μονή κάρτα με καλύτερες επιδόσεις.
Προτεινόμενες αναρτήσεις
Αρχειοθετημένο
Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.