frenzy Δημοσ. 10 Μαρτίου 2009 Δημοσ. 10 Μαρτίου 2009 Κάποιος είχε πει εδώ πως η Νvidia είχε προτείνει στην ΑΤΙ την από κοινού "υιοθεσία" του CUDA και η δεύτερη αρνήθηκε. Αληθεύει?
Ailuros Δημοσ. 10 Μαρτίου 2009 Δημοσ. 10 Μαρτίου 2009 Κάποιος είχε πει εδώ πως η Νvidia είχε προτείνει στην ΑΤΙ την από κοινού "υιοθεσία" του CUDA και η δεύτερη αρνήθηκε. Αληθεύει? Αν και θα ήταν χαράς ευαγγέλια για την NV να υιοθετήσει ο άμεσος ανταγωνισμός τους μια δική τους γλώσσα προγραμματισμού, μην πιστεύεις την κάθε ράδιο αρβύλα που κυκλοφορεί. Εκτός αν θεωρείς εφικτό η ATI να μπορεί να μετατρέψει το κάθε RV6x0/RV7x0 σε G80
Moderators GeorgeMan Δημοσ. 10 Μαρτίου 2009 Moderators Δημοσ. 10 Μαρτίου 2009 Το κόλπο είναι να προτιμάς πάντα τον καλύτερο συσχετισμό τιμής/απόδοσης για κάθε χρονική στιγμή ανεξάρτητα από ποιά εταιρία. Δεν θα πω ότι εμένα προσωπικά το CUDA θα αρκούσε να με πείσει για μια αγορά μιας GeForce έναντι μιας Radeon. Παραμένει ωστόσο γεγονός ότι η AMD πρέπει επιτέλους να κουνήσει τον πισινό της για οτιδήποτε αφορά GPGPU σαν γενική διαπίστωση όσων αφορά τις αγορές. Η NV προσπαθεί με νύχια και με δόντια να διεισδύσει σε όσα περισσότερα σημεία μπορεί για να δυσκολέψει την ζωή του Intel LRB το 2010. H AMD τι κάνει ακριβώς; Μόνο με χαμηλές τιμές και με την ψυχολογία του παθητικού θεατή μην περιμένεις θαύματα. Γι΄αυτό και δυστυχώς το επαναλαμβανόμενο "α ρε ΑΤΙ" που είπατε μερικοί είναι μια δυσάρεστη πραγματικότητα. Για να πω την αληθεια, μεχρι τωρα δεν ειχα κανενα προβλημα με οποιαδηποτε καρτα γραφικων. Απλα οταν πηρα την 3870, τυχαινε η Nv να επιανε κWλους με τις τιμουλες, οποτε και δε τη προτιμησα. Για δευτερο μηχανημα ομως, μιας που τελικα κατεληξα σε NVidia, μου βγηκε μια χαρα επενδυσουλα Αυτο που λες εννοειται σε καθε περιπτωση!
MasterX Δημοσ. 10 Μαρτίου 2009 Δημοσ. 10 Μαρτίου 2009 εγω με την 6600GT παιρνω τα @@ μου...θα περιμενω να αλλαξω μηχανημα... Μιας και σκοπεύω να αλλάξω οθόνη μεσα στη βδομάδα και να πάω σε μια 26άρα!!! ψήνομαι να αλλάξω προσωρινά και καρτα γραφικών... Βασικά ο GeorgeMan με έψησε με αυτά που είπε για την 9500GT... με 60 ευρω για το παλιο μηχανημα, θα παρω καπως καλυτερη καρτα απο την 6600GT... προσωρινά .. Θα εχει και DVI και επισης μπορω να διαλεξω μια με 1GB για να ειναι λιγο καλυτερα τα πραγματα σε μεγαλες αναλύσεις.. οχι οτι θα καταφερω να παιξω βαρια παιχνιδια σε μεγαλη αναλυση... αλλά τουλαχιστον θα παιζει με το CUDA καλά τις HD ταινιες.. Αλήθεια η 9500GT σε σχεση με την 6600GT εχει καμιααισθητη διαφορα στις επιδοσεις 3D??? (επεξεργαστή εχω AMD ATHLON 64 3000+)
Super Moderators Thresh Δημοσ. 10 Μαρτίου 2009 Super Moderators Δημοσ. 10 Μαρτίου 2009 για προσωρινή λύση είναι μια χαρά...αλλά στο διάστημα αυτό μην παίζεις games στην native resolution, θα απογοητείς... δεν είναι ανάγκη να πάρεις 1gb 9500GT με 512mb είσαι οκ, το ίδιο πράγμα θα είναι...
Moderators GeorgeMan Δημοσ. 10 Μαρτίου 2009 Moderators Δημοσ. 10 Μαρτίου 2009 Με Athlon 64 3000+ δεν γνωριζω, με Core 2 Duo παντως εχει αισθητοτατη. Περιπου... 4πλασιες επιδοσεις (μη πω και παραπανω). Αναφερομαι στη DDR2 εκδοση. Η DDR3 θα εχει ακομα μεγαλυτερη διαφορα. Μπορεις να κλοκαρεις τον 3000+ σε 3800+ σχετικα ανετα, κι ετσι σε παιχνιδια που δεν εκμεταλλευονται διπυρηνους (δηλαδη οχι σημερινα, λιγο παλαιοτερα) να εχεις πολυ καλες επιδοσεις. Επισης με 182.08 drivers + Core AVC 1.9 θα μπορεις να παιζεις πλεον full hd videos, καθως την αναπαραγωγη θα αναλαμβανει η καρτα γραφικων. Βεβαια αυτο το στοιχειο (CUDA) το υποστηριζει και η 9400GT, οποτε ισως να ηταν καλυτερο να πας σε αυτη (για να μην εχει τοσο χασμα συγκριτικα με τον επεξεργαστη σου - απο την αλλη δεν συμφερει ομως, με τη μικρη διαφορα τιμης που εχουν). MasterX, για 26" θες dual core + συστημα, με HD4870+ vga... Με οτιδηποτε αλλο, απλα δε θα μπορεις να παιζεις στη native αναλυση της οθονης σου (με αξιωσεις και hi details και φιλτρα on). Τωρα τι οθονη εχεις? Η 9500 μια χαρα τα καταφερνει σε 1280 με ολα τα φιλτρα και hi details σε παρα πολλα παιχνιδια. (Crysis στο Medium σε 1280 με 4xAA, και περιπου 28-30 fps).
MasterX Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 check here guys... Βασικα μεχρι να αλλαξω συστημα σε μερικούς μηνες δεν προκειται να παιξω πολυ, λογω ελαχιστου ελευθερου χρονου.. Επίσης μου φανηκε καλο αυτο που ειπαν οτι οι tft μπορουν να μην κάνουν strech την εικόνα αλλά να χρησιμοποιεί 1:1 pixel maping. Δηλαδη σαν να εχεις μια μικροτερη οθονη και θα βλέπεις και ενα μαυρο πλαισιο γυρω γυρω.. ειναι και αυτη μια λυση αναγκης.. Το κανουν ολες οι tft όμως??? Για το 1gb 9500GT σκεφτηκα οτι θα βοηθαει σε μεγαλες αναλυσεις.. τωρα πιθανως να μην παιξω τιποτα σε μεγαλη αναλυση μεχρι να αλλαξω συστημα.. Επίσης στο Πλαισιο θα φερει καρτουλα με 65 ευρω
Ailuros Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 To 1GB μνήμης είναι υπερβολή ακόμα και για 9800-άρες και δεν αξίζει η επένδυση σε καμία περίπτωση. Για να φτάσει μια 9500/9600 στο σημείο να εκμεταλλευτεί πάνω από 512ΜΒ μνήμης θα της έχεις τελειώσει προ πολλού ο ρυθμός πλήρωσης και το εύρος μνήμης. Με τα 65 ευρώπουλα παίρνεις άνετα μια υψηλότερα χρονισμένη 9500GT/512MB ή βάζεις άλλα 25 και παίρνεις μια 9600GT μια και καλή.
Delta² Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Άξιον απορίας, υποτίθεται ότι όλες οι κάρτες γραφικών υποστηρίζουν hardware video acceleration. Τελικά αυτό το τελευταίο είναι μια απάτη? Η έχουν γίνει πλέον τόσα πολλά τα διαφορετικά format video που δεν καλύπτονται όλα απο αυτό και πρέπει να καταφύγουμε σε λύσεις σαν το CUDA?
Ailuros Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Άξιον απορίας, υποτίθεται ότι όλες οι κάρτες γραφικών υποστηρίζουν hardware video acceleration. Τελικά αυτό το τελευταίο είναι μια απάτη? Η έχουν γίνει πλέον τόσα πολλά τα διαφορετικά format video που δεν καλύπτονται όλα απο αυτό και πρέπει να καταφύγουμε σε λύσεις σαν το CUDA? Αυτό που κάνει το CUDA και θα κάνει κάθε μελλοντική πλατφόρμα λογισμικού (βλέπε OpenCL, Direct3D11 κλπ.) είναι μέσω GPP (general purpose processing) να αναλαμβάνει ένα επιπλέον μέρος επεξεργασίας από την CPU κατά την επεξεργασία. Ο ουσιαστικός και απώτερος σκοπός μια τέτοιου είδους πλατφόρμας λογισμικού είναι να εξισορροπήσει παραπάνω την διαχείρηση διαθέσιμων πόρων των εκάστοτε μονάδων (GPU ή CPU). ΄Οταν έχεις μόνο μια εφαρμογή αναπαραγωγής video/DVD ανοιχτή δεν έχει και τόσο μεγάλη σημασία που ακριβώς πέφτει το βάρος. ΄Οταν όμως πάμε σε επίπεδα multitasking τότε αρχίζουν τα δύσκολα.
Delta² Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Αυτό που κάνει το CUDA και θα κάνει κάθε μελλοντική πλατφόρμα λογισμικού (βλέπε OpenCL, Direct3D11 κλπ.) είναι μέσω GPP (general purpose processing) να αναλαμβάνει ένα επιπλέον μέρος επεξεργασίας από την CPU κατά την επεξεργασία. Ο ουσιαστικός και απώτερος σκοπός μια τέτοιου είδους πλατφόρμας λογισμικού είναι να εξισορροπήσει παραπάνω την διαχείρηση διαθέσιμων πόρων των εκάστοτε μονάδων (GPU ή CPU). ΄Οταν έχεις μόνο μια εφαρμογή αναπαραγωγής video/DVD ανοιχτή δεν έχει και τόσο μεγάλη σημασία που ακριβώς πέφτει το βάρος. ΄Οταν όμως πάμε σε επίπεδα multitasking τότε αρχίζουν τα δύσκολα. Δηλαδή ακόμα και με την χρησιμοποιήση hardware video decode, μένει τόσο σημαντικό φορτίο στην CPU (κάποιοι λένε 60-70% σε επεξεργαστές της κλάσης Core2 duo) ώστε αυτό να θέλουμε να μεταφερθεί στην GPU μέσω CUDA? Καλά τι στο καλό κάνει εντέλει το hardware video decode που λένει ότι υποστηρίζουν οι κάρτες γραφικών?? Απο ότι κατάλαβα είναι πλεόν απαρχαιομένο για να υποστηρίξει τα σύγχρονα format video.
Ailuros Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Δηλαδή ακόμα και με την χρησιμοποιήση hardware video decode, μένει τόσο σημαντικό φορτίο στην CPU (κάποιοι λένε 60-70% σε επεξεργαστές της κλάσης Core2 duo) ώστε αυτό να θέλουμε να μεταφερθεί στην GPU μέσω CUDA? Καλά τι στο καλό κάνει εντέλει το hardware video decode που λένει ότι υποστηρίζουν οι κάρτες γραφικών?? Απο ότι κατάλαβα είναι πλεόν απαρχαιομένο για να υποστηρίξει τα σύγχρονα format video. Εξαρτάται για τι είδους video encode/decode μιλάμε κατ'αρχήν και πως έχει γραφτεί η εκάστοτε εφαρμογή που θα το εκτελέσει http://en.wikipedia.org/wiki/Video_codec http://en.wikipedia.org/wiki/Deblocking_filter_(video) http://en.wikipedia.org/wiki/High-definition_video ΄Ενας κοινός επεξεργαστής με 2 ή και 4 πυρήνες μπορεί να επεξεργαστεί μόνο ένα μικροσκοπικό αριθμό από threads παράλληλα σε αντίθεση με μια GPU που φτάνει τις χιλιάδες. Περαιτέρω λεπτομέρειες μπορείς να βρεις εδώ: http://en.wikipedia.org/wiki/CUDA όπως φυσικά όλες τις σχετικές παραπομπές για OpenGL, BrookGPU, ATi Firestream κλπ.
Delta² Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Εξαρτάται για τι είδους video encode/decode μιλάμε κατ'αρχήν και πως έχει γραφτεί η εκάστοτε εφαρμογή που θα το εκτελέσει http://en.wikipedia.org/wiki/Video_codec http://en.wikipedia.org/wiki/Deblocking_filter_(video) http://en.wikipedia.org/wiki/High-definition_video ΄Ενας κοινός επεξεργαστής με 2 ή και 4 πυρήνες μπορεί να επεξεργαστεί μόνο ένα μικροσκοπικό αριθμό από threads παράλληλα σε αντίθεση με μια GPU που φτάνει τις χιλιάδες. Περαιτέρω λεπτομέρειες μπορείς να βρεις εδώ: http://en.wikipedia.org/wiki/CUDA όπως φυσικά όλες τις σχετικές παραπομπές για OpenGL, BrookGPU, ATi Firestream κλπ. Τίποτα άλλο χεχε? Προφανώς και μένει σημαντικός φόρτος στην CPU παρόλο που θέλουμε να λέμε ότι το decode γίνεται στην GPU. Δεν ξέρω αν ο φόρτος είναι το overhead από τα πάρα πολλά thread ή τα δεδομένα πρέπει να προετοιμαστούν προτού δοθούν στην GPU για να γίνει το καθαρό video decoding. Η όλη κατάσταση μου θυμίζει κάτι πολυ παλιά όπου οι πρώτες κάρτες γραφικών 3D δεν υποστήριζαν geometry acceleration( για να το πούμε με συγχρονη ορολογία υποστήριζαν μόνο fixed pixel shaders και δεν υποστήριζαν καθόλου vertex shaders).
Ailuros Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Τίποτα άλλο χεχε? Προφανώς και μένει σημαντικός φόρτος στην CPU παρόλο που θέλουμε να λέμε ότι το decode γίνεται στην GPU. ΄Οταν χρησιμοποιηθεί CUDA ο φόρτος στον επεξεργαστή γίνεται μηδαμινός. Δεν ξέρω αν ο φόρτος είναι το overhead από τα πάρα πολλά thread ή τα δεδομένα πρέπει να προετοιμαστούν προτού δοθούν στην GPU για να γίνει το καθαρό video decoding. Δες το απλά σαν ενδιάμεση λύση να επεξεργαστεί η GPU τα δεδομένα σαν CPU πλέον. Καμιά φορά οι υπεραπλουστεύσεις βοηθάνε. Η όλη κατάσταση μου θυμίζει κάτι πολυ παλιά όπου οι πρώτες κάρτες γραφικών 3D δεν υποστήριζαν geometry acceleration( για να το πούμε με συγχρονη ορολογία υποστήριζαν μόνο fixed pixel shaders και δεν υποστήριζαν καθόλου vertex shaders). Το geometry acceleration στις GPU ξεκίνησε με μονάδες T&L (transform & lighting). Τα πρώτα υποτιθέμενα παιχνίδια "T&L" είχαν κάποια transformations και καθόλου ή ελάχιστο lighting. Η πρώτη μηχανή παιχνιδιού που είχε καθαρά T&L κωδικό ήταν το Unreal Engine2 (UT2003), όπου αν ακουμπούσες το παιχνίδι χωρίς μονάδα T&L στην GPU κατέληγες απελπιστηκά CPU limited, μιας και η κάρτα γραφικών φόρτωνε οτιδήποτε T&L στην CPU. Eδώ είμαστε ωστόσο ακόμα στην εποχή fixed function όσων αφορά τις μονάδες επιτάχυνσης γεωμετρίας. ΄Οταν άρχισαν οι μονάδες αυτές να αποκτούν προγραμματιζόμενες μονάδες είδαμε και τα πρώτα shaders (pixel & vertex shaders) σε μονάδες GPU. Δεν υπάρχουν fixed pixel shaders ή οτιδήποτε παρόμοιο. ΄Η είναι κάτι programmable ή είναι fixed function. Ξεκίνησαν με 2 είδη shaders (DX8/DX9), όπου τα pixel shaders ήταν τμήμα των ALUs και τα vertex shaders ήταν ανεξάρτητες μονάδες γεωμετρίας (για T&L ή VS1.0-3.0), προχωρήσαμε στα 3 είδη shaders (DX10) και την ενσωμάτωση όλων στα ALUs και πάμε αισίως για 6 είδη shaders για το D3D11. Aν και φοβάμαι ότι θα σε μπερδέψω δεν χρειάζεται οπωσδήποτε μια GPU για video decoding π.χ. Μια πλειάδα smartphones και σημερινά netbooks χρησιμοποιούν κάτι ανάλογο: http://www.imgtec.com/powervr/powervr-vxd.asp (για όποιον ενδιαφέρεται μπορεί να κατεβάσει και το factsheet στην παραπάνω παραπομπή) Είναι ένας μικροσκοπικός πυρήνας σχεδιασμένος αποκλειστικά για decoding, αλλά η βάση του επεξεργαστή του δεν είναι κάτι ανάλογο με CPU αλλά ένας κάτα βάση GPP (general purpose processor) με εξελιγμένες δυνατότητες superthreading. Στην πράξη καταφέρνει τέτοιες τσατσαριές: http://www.anandtech.com/tradeshows/showdoc.aspx?i=3494&p=7
parsifal Δημοσ. 11 Μαρτίου 2009 Δημοσ. 11 Μαρτίου 2009 Από τις λίγες γνώσεις που έχω πάνω στο θέμα, έχω καταλάβει τα παρακάτω. Η υποβοήθηση που μπορεί να προσφέρει μία σύγχρονη κάρτα γραφικών στην αποκωδικοποίηση απαιτητικών video formats μπορεί να πάρει δύο μορφές: 1. Πλήρης αποκωδικοποίηση του video stream στην GPU. Αυτό επιτυγχάνεται με hardware, δηλαδή ένα τμήμα των transistors της GPU χρησιμοποιείται για την υλοποίηση μίας dedicated decoding engine. ATI και nVIDIA ονομάζουν τις αντίστοιχες τεχνολογίες τους UVD και PureVideo HD αντίστοιχα. Πλεονεκτήματα: Σχεδόν πλήρες offloading του video decoding στην κάρτα Εύκολη υποστήριξη σε προγραμματιστικό επίπεδο από τους software developers των video players (κλήσεις DXVA API ή VDPAU) Μειονεκτήματα: Η υλοποίηση, εφόσον βασίζεται σε fixed hardware δεν είναι αναβαθμίσιμη (εκτός βέβαια από hardware revisions της decoding engine σε νεότερες κάρτες). Αυτό σημαίνει πως οι εταιρείες δε μπορούν να υποστηρίξουν όλα τα διαθέσιμα video formats που υπάρχουν. Αλλά ακόμη και για τα πιο δημοφιλή και απαιτητικά όπως το H.264, δεν υποστηρίζουν π.χ. όλα τα διαθέσιμα levels Η χρήση DirectX δε διευκολύνει την cross-platform φορητότητα (αν και υπάρχει κάποια κινητικότητα, βλ VDPAU από nVIDIA, XvBA από ATI) 2. Χρήση GPGPU programming. Δηλαδή υλοποίηση του video decoder σε software, αλλά με ανάθεση της εκτέλεσης τμήματος του κώδικα στους stream processors της GPU. Πλεονεκτήματα: Ευελιξία στην υλοποίηση: μπορεί να είναι πλήρως conformant στα standards και τους reference decoders ή λιγότερο για να υπάρχει κέρδος σε απαιτούμενη υπολογιστική ισχύ Δυνατότητα updates στον κώδικα Δυνητικά μπορεί να υποστηριχθεί οποιοδήποτε video format. Αρκεί να υπάρχει ενδιαφέρον Η φορητότητα σε διαφορετικές πλατφόρμες είναι πιο εύκολη υπόθεση Μειονεκτήματα: Δεν είναι σταθερά τα features που παρέχει το hardware ακόμη και εντός του ίδιου vendor. Π.χ. οι διάφορες CUDA-capable κάρτες της nVIDIA ανήκουν σε διαφορετικές κλάσεις Compute Capability (1.0, 1.1, 1.3) με σημαντικότερη διαφορά την έλλειψη double-precision (κατά ΙΕΕΕ-754) floating point αριθμών στις μικρότερες κλάσεις CPU offloading σε μικρότερο βαθμό από την πρώτη προσέγγιση Επειδή ο κώδικας είναι vendor-specific (π.χ. CUDA SDK για nVIDIA, Stream SDK για ATI) περισσότερη δουλειά για τους developers. Όσο ακόμη δεν έχει υπάρχει ένα ενιαίο API ευρείας αποδοχής, η δουλειά που θα πρέπει να κάνει μία ομάδα ανάπτυξης για την υλοποίηση ενός αλγορίθμου με GPGPU πολλαπλασιάζεται για κάθε αρχιτεκτονική που θέλει να υποστηρίξει. Π.χ. η ομάδα του CoreAVC στις τελευταίες εκδόσεις του codec πρόσθεσε CUDA support. Αν θέλει να υποστηρίξει και ATI κάρτες, θα πρέπει σημαντικό τμήμα του κώδικα να προστεθεί για porting των kernels σε ATI Stream κώδικα κλπ. Κατά τη γνώμη μου, όσον αφορά το video decoding μόνο, πιο ενδιαφέρουσα είναι η 1η προσέγγιση. Το GPGPU είναι άλλο φρούτο, έχει πολύ περισσότερες δυνητικές εφαρμογές και ήδη αξιοποιείται σε ορισμένες από αυτές με επιτυχία (scientific computing κάθε είδους).
Προτεινόμενες αναρτήσεις
Αρχειοθετημένο
Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.