nautilus7 Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Καλησπέρα, με ενδιαφέρει να πάρω μια κάρτα γραφικών, αλλά μόνο οι επιδόσεις σε εφαρμογές με Cuda και όχι οι επιδόσεις στα παιχνίδια. Ποια είναι η τελευταία έκδοση του Cuda; Ποια είναι η πιο φτηνή κάρτα που έχει την τελευταία έκδοση; Στο wikipedia λέει ότι οι κάρτες με το GT640 rev2 έχουν cuda 3.5. Είναι αυτό το τελευταίο; Ποιες κάρτες έχουν αυτή την GPU;
MoviemakerGr Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Τι χρηση θέλεις να κάνεις και ρίχνεις όλο το βάρος στην τελευταία έκδοση ? Σε ρωτάω γιατί οι Cuda cores μπορούμε να πούμε ότι είναι ένας επιταχυντής αλλά θέλει και το κατάλληλο "αμάξωμα" ανάλογα το ζητούμενο.
Aristomaxos Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Η τελευταία έκδοση του CUDA Toolkit που σε βοηθάει να φτιάχνεις εφαρμογές CUDA σε C και σε C++ είναι η 5.5, https://developer.nvidia.com/cuda-toolkit. Οποιαδήποτε κάρτα γραφικών με CUDA cores μπορεί να εκμεταλλευτεί το προγραμματιστικό περιβάλλον που σου παρέχει το CUDA Toolkit. Εγώ αυτή τη στιγμή έχω μια 8800 GTS (κυκλοφόρησε το 2007) και δουλεύω με την έκδοση 5.0 του CUDA Toolkit. Αυτό που σ' ενδιαφέρει λοιπόν είναι αρχιτεκτονική της GPU και όχι το προγραμματιστικό περιβάλλον. Σε κάθε NVIDIA GPU έχει αποδωθεί ένα αριθμός που αντιπροσωπεύει την υπολογιστική της ικανότητα. Π.χ η 8800 GTS έχει 1.1. Γενικά η αρχιτεκτονική Τesla έχει 1.x , η αρχιτεκτονική Fermi 2.x και η αρχιτεκτονική Kepler 3.x. Μόνο οι κάρτες που έχουν το chip GK110 έχουν υπολογιστική ικανότητα 3.5, π.χ Titan, Tesla K20. Επειδή όμως αυτές οι κάρτες κοστίζουν από 1000€ και πάνω μάλλον πρέπει να τις ξεχάσεις. Για CUDA εφαρμογές μια μεταχειρισμένη GTX 580 ή 570 (Fermi, 2.0) θα σε βόλευε τώρα. Σε πολλές εφαρμογές η 580 είναι πιο γρήγορη από μια 680. Σε κάποιες είναι πιο γρήγορη η 680. Μπορείς να δεις εδώ μερικά παραδείγματα, http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17 Αν θες να κάνεις υπολογισμούς με double precision πας καρφί για 570 ή 580. Εγώ που κάνω μια υδροδυναμική προσομείωση με single precision χρειάζομαι όσον το δυνατόν περισσότερους πυρήνες και προτιμώ κάρτες Kepler. Είχα μια 660 και τη πούλησα γιατί έχω τη πρόθεση να πάρω μια 660 Ti (40% αύξηση σε CUDA πυρήνες). Ανάλογα λοιπόν με την εφαρμογή σου ταιριάζει και η κατάλληλη κάρτα γραφικών. 1
Hawk7 Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Η τελευταία έκδοση του CUDA Toolkit που σε βοηθάει να φτιάχνεις εφαρμογές CUDA σε C και σε C++ είναι η 5.5, https://developer.nvidia.com/cuda-toolkit. Οποιαδήποτε κάρτα γραφικών με CUDA cores μπορεί να εκμεταλλευτεί το προγραμματιστικό περιβάλλον που σου παρέχει το CUDA Toolkit. Εγώ αυτή τη στιγμή έχω μια 8800 GTS (κυκλοφόρησε το 2007) και δουλεύω με την έκδοση 5.0 του CUDA Toolkit. Αυτό που σ' ενδιαφέρει λοιπόν είναι αρχιτεκτονική της GPU και όχι το προγραμματιστικό περιβάλλον. Σε κάθε NVIDIA GPU έχει αποδωθεί ένα αριθμός που αντιπροσωπεύει την υπολογιστική της ικανότητα. Π.χ η 8800 GTS έχει 1.1. Γενικά η αρχιτεκτονική Τesla έχει 1.x , η αρχιτεκτονική Fermi 2.x και η αρχιτεκτονική Kepler 3.x. Μόνο οι κάρτες που έχουν το chip GK110 έχουν υπολογιστική ικανότητα 3.5, π.χ Titan, Tesla K20. Επειδή όμως αυτές οι κάρτες κοστίζουν από 1000€ και πάνω μάλλον πρέπει να τις ξεχάσεις. Για CUDA εφαρμογές μια μεταχειρισμένη GTX 580 ή 570 (Fermi, 2.0) θα σε βόλευε τώρα. Σε πολλές εφαρμογές η 580 είναι πιο γρήγορη από μια 680. Σε κάποιες είναι πιο γρήγορη η 680. Μπορείς να δεις εδώ μερικά παραδείγματα, http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17 Αν θες να κάνεις υπολογισμούς με double precision πας καρφί για 570 ή 580. Εγώ που κάνω μια υδροδυναμική προσομείωση με single precision χρειάζομαι όσον το δυνατόν περισσότερους πυρήνες και προτιμώ κάρτες Kepler. Είχα μια 660 και τη πούλησα γιατί έχω τη πρόθεση να πάρω μια 660 Ti (40% αύξηση σε CUDA πυρήνες). Ανάλογα λοιπόν με την εφαρμογή σου ταιριάζει και η κατάλληλη κάρτα γραφικών. Δηλαδη η titan δεν ειναι καλη;σε ρωτω,επειδη με ενδιαφερουν και μενα τα cudas.Η επεξεργαστικη ισχυς της titan τι λεει,σε συγκριση με τις επαγγελματικες καρτες;
Aristomaxos Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Η Titan είναι αυτό που λέει τ' όνομα της για επιστημονικές εφαρμογές. Μπορείς να δεις εδώ μερικά benchmarks, http://www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-performance-unveiled/3 . Έχει το ίδιο chip, το GK110, με τις κάρτες Tesla K20X και Κ20, http://www.nvidia.com/object/tesla-servers.html . Δε γνωρίζω όμως τι προσφέρει παραπάνω η Tesla K20X, καθότι είναι 3,5 φορές ακριβότερη απ' τη Titan, http://www.amazon.com/NVIDIA-TESLA-K20X-GB-MODULE/dp/B00AM0FD00
nautilus7 Δημοσ. 12 Οκτωβρίου 2013 Μέλος Δημοσ. 12 Οκτωβρίου 2013 Λοιπόν, οπότε δεν είναι τα πράγματα όπως τα νόμιζα. Εγώ θέλω να τρέχω προγράμματα που υπολογίζουν rainbow tables τα οποία χρησιμοποιούνται για ανεύρεση passwords. Άρα μετράει απλά το πλήθος των πυρήνων cuda; Όσο πιο πολλοί τόσο πιο γρήγορα; Κάποια συμφέρουσα κάρτα με αυτό το δεδομένο;
Aristomaxos Δημοσ. 12 Οκτωβρίου 2013 Δημοσ. 12 Οκτωβρίου 2013 Δεν μετράει μόνο το πλήθος των CUDA πυρήνων. Στην ίδια αρχιτεκτονική, όσο περισσότεροι πυρήνες τόσο το καλύτερο. Η σειρά 6xx της NVIDIA προσανατολίστηκε περισσότερο σε gaming perfomance, ενώ η σειρά 5xx είναι πιο all around και καλύτερη σε υπολογιστικές εφαρμογές στα περισσότερα σενάρια. Ειδικά για τον υπολογισμόr rainbow tables δε γνωρίζω να σου πω ποια αρχιτεκτονική ταιριάζει καλύτερα. Παρόλα αυτά εγώ σου προτείνω να πάρεις μια gtx 570 ή ακόμα καλύτερα μια 580. Τη 570 μεταχειρισμένη νομίζω μπορείς να τη βρες γύρω στα 120€.
nautilus7 Δημοσ. 13 Οκτωβρίου 2013 Μέλος Δημοσ. 13 Οκτωβρίου 2013 Σε ευχαριστώ πολύ για τις υποδείξεις φίλε. Θα δω τι θα κάνω γιατί υπολόγιζα να έκανα δουλειά με λιγότερα χρήματα. Κάτω από 100 αν είναι δυνατόν.
Zaknafein Δημοσ. 13 Οκτωβρίου 2013 Δημοσ. 13 Οκτωβρίου 2013 Τότε κοιτάς για σειρά 4ΧΧ, 450 ~40-50€, 460 70-80€ μτχ. Λογικά και οι 2 θα είναι πιο γρήγορες από μια 640 αλλά μην σε κάψω κιόλας, θα πρέπει να το τσεκάρεις εσύ (αν υπάρχουν πουθενά CUDA benchmarks δλδ)
Aristomaxos Δημοσ. 13 Οκτωβρίου 2013 Δημοσ. 13 Οκτωβρίου 2013 Μια GTX 460 είναι σίγουρα πολύ καλύτερη απ' την GT 640. Δεν υπάρχει αμφιβολία. Στις αγγελίες για GPUs υπάρχει μια 470 στα 95€.
nautilus7 Δημοσ. 13 Οκτωβρίου 2013 Μέλος Δημοσ. 13 Οκτωβρίου 2013 Αυτά είναι σωστά; GTX 470 - 448 Cuda Cores GTX 460 - 336 Cuda Cores GT 640 - 384 Cuda Cores Οι Cuda Cores μπορεί να είναι πιο γρήγοροι ή πιο αργοί ανάλογα το clock της GPU;
Aristomaxos Δημοσ. 13 Οκτωβρίου 2013 Δημοσ. 13 Οκτωβρίου 2013 Ναι σωστά είναι και η απάντηση στην ερώτηση είναι ναι. Το μέγεθος που συνδυάζει το clock της GPU με τον αριθμό των πυρήνων είναι ο θεωρητικός αριθμός των GFLOPS. GFLOPS = core_clock * number_of_cores * 2. Δες εδώ τα GFLOPS της 640, http://en.wikipedia.org/wiki/GeForce_600_Series και τα GLOPS της σειράς 4xx, http://en.wikipedia.org/wiki/GeForce_400_Series
Zaknafein Δημοσ. 13 Οκτωβρίου 2013 Δημοσ. 13 Οκτωβρίου 2013 Δεν είναι πολύ πίσω η 640 τελικά, μάλλον αξίζει γιατί θα είναι και καινούρια με εγγύηση κτλ. Προσοχή όμως να είναι GDDR5.
nautilus7 Δημοσ. 13 Οκτωβρίου 2013 Μέλος Δημοσ. 13 Οκτωβρίου 2013 Μάλιστα, αρχίζω να το πιάνω το νόημα. Μετά από αυτές για καλύτερο (~150 ευρώ) πάμε στην GTX 650 Ti Boost καινούργια ή σε κάποια 570/580 μεταχειρισμένη που πρότεινε ο Αριστομάχος.
Zaknafein Δημοσ. 13 Οκτωβρίου 2013 Δημοσ. 13 Οκτωβρίου 2013 Γιατί όταν η 650 ti boost βγάζει 1400 GFLOPS να δεις για μτχ 570 που βγάζει πάνω κάτω τα ίδια ; Για development εγώ θα ήθελα και την αξιοπιστία / εγγύηση μιας καινούριας. Εσύ θα τα ζυγίσεις βέβαια, αλλά αν δεν την βρεις την 570 σε τιμή ευκαιρίας, δεν ξέρω κατά πόσο αξίζει.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα