Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

Καλησπέρα, με ενδιαφέρει να πάρω μια κάρτα γραφικών, αλλά μόνο οι επιδόσεις σε εφαρμογές με Cuda και όχι οι επιδόσεις στα παιχνίδια.

 

Ποια είναι η τελευταία έκδοση του Cuda;

Ποια είναι η πιο φτηνή κάρτα που έχει την τελευταία έκδοση;

 

Στο wikipedia λέει ότι οι κάρτες με το GT640 rev2 έχουν cuda 3.5. Είναι αυτό το τελευταίο; Ποιες κάρτες έχουν αυτή την GPU;

Δημοσ.

Τι χρηση θέλεις να κάνεις και ρίχνεις όλο το βάρος στην τελευταία έκδοση ? Σε ρωτάω γιατί  οι Cuda cores μπορούμε να πούμε ότι είναι ένας επιταχυντής αλλά θέλει και το κατάλληλο "αμάξωμα" ανάλογα το ζητούμενο.

Δημοσ.

Η τελευταία έκδοση του CUDA Toolkit που σε βοηθάει να φτιάχνεις εφαρμογές CUDA σε C και σε C++ είναι η 5.5, https://developer.nvidia.com/cuda-toolkit. Οποιαδήποτε κάρτα γραφικών με CUDA cores μπορεί να εκμεταλλευτεί το προγραμματιστικό περιβάλλον που σου παρέχει το CUDA Toolkit. Εγώ αυτή τη στιγμή έχω μια 8800 GTS (κυκλοφόρησε το 2007) και δουλεύω με την έκδοση 5.0 του CUDA Toolkit. Αυτό που σ' ενδιαφέρει λοιπόν είναι αρχιτεκτονική της GPU και όχι το προγραμματιστικό περιβάλλον.

Σε κάθε NVIDIA GPU έχει αποδωθεί ένα αριθμός που αντιπροσωπεύει την υπολογιστική της ικανότητα. Π.χ η 8800 GTS έχει 1.1. Γενικά η αρχιτεκτονική Τesla έχει 1.x , η αρχιτεκτονική Fermi 2.x και η αρχιτεκτονική Kepler 3.x. Μόνο οι κάρτες που έχουν το chip GK110 έχουν υπολογιστική ικανότητα 3.5, π.χ Titan, Tesla K20. Επειδή όμως αυτές οι κάρτες κοστίζουν από 1000€ και πάνω μάλλον πρέπει να τις ξεχάσεις.

Για CUDA εφαρμογές μια μεταχειρισμένη GTX 580 ή 570 (Fermi, 2.0) θα σε βόλευε τώρα. Σε πολλές εφαρμογές η 580 είναι πιο γρήγορη από μια 680. Σε κάποιες είναι πιο γρήγορη η 680. Μπορείς να δεις εδώ μερικά παραδείγματα, http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17 Αν θες να κάνεις υπολογισμούς με double precision πας καρφί για 570 ή 580. Εγώ που κάνω μια υδροδυναμική προσομείωση με single precision χρειάζομαι όσον το δυνατόν περισσότερους πυρήνες και προτιμώ κάρτες Kepler. Είχα μια 660 και τη πούλησα γιατί έχω τη πρόθεση να πάρω μια 660 Ti (40% αύξηση σε CUDA πυρήνες). Ανάλογα λοιπόν με την εφαρμογή σου ταιριάζει και η κατάλληλη κάρτα γραφικών. 

  • Like 1
Δημοσ.

Η τελευταία έκδοση του CUDA Toolkit που σε βοηθάει να φτιάχνεις εφαρμογές CUDA σε C και σε C++ είναι η 5.5, https://developer.nvidia.com/cuda-toolkit. Οποιαδήποτε κάρτα γραφικών με CUDA cores μπορεί να εκμεταλλευτεί το προγραμματιστικό περιβάλλον που σου παρέχει το CUDA Toolkit. Εγώ αυτή τη στιγμή έχω μια 8800 GTS (κυκλοφόρησε το 2007) και δουλεύω με την έκδοση 5.0 του CUDA Toolkit. Αυτό που σ' ενδιαφέρει λοιπόν είναι αρχιτεκτονική της GPU και όχι το προγραμματιστικό περιβάλλον.

Σε κάθε NVIDIA GPU έχει αποδωθεί ένα αριθμός που αντιπροσωπεύει την υπολογιστική της ικανότητα. Π.χ η 8800 GTS έχει 1.1. Γενικά η αρχιτεκτονική Τesla έχει 1.x , η αρχιτεκτονική Fermi 2.x και η αρχιτεκτονική Kepler 3.x. Μόνο οι κάρτες που έχουν το chip GK110 έχουν υπολογιστική ικανότητα 3.5, π.χ Titan, Tesla K20. Επειδή όμως αυτές οι κάρτες κοστίζουν από 1000€ και πάνω μάλλον πρέπει να τις ξεχάσεις.

Για CUDA εφαρμογές μια μεταχειρισμένη GTX 580 ή 570 (Fermi, 2.0) θα σε βόλευε τώρα. Σε πολλές εφαρμογές η 580 είναι πιο γρήγορη από μια 680. Σε κάποιες είναι πιο γρήγορη η 680. Μπορείς να δεις εδώ μερικά παραδείγματα, http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/17 Αν θες να κάνεις υπολογισμούς με double precision πας καρφί για 570 ή 580. Εγώ που κάνω μια υδροδυναμική προσομείωση με single precision χρειάζομαι όσον το δυνατόν περισσότερους πυρήνες και προτιμώ κάρτες Kepler. Είχα μια 660 και τη πούλησα γιατί έχω τη πρόθεση να πάρω μια 660 Ti (40% αύξηση σε CUDA πυρήνες). Ανάλογα λοιπόν με την εφαρμογή σου ταιριάζει και η κατάλληλη κάρτα γραφικών. 

Δηλαδη η titan δεν ειναι καλη;σε ρωτω,επειδη με ενδιαφερουν και μενα τα cudas.Η επεξεργαστικη ισχυς της titan τι λεει,σε συγκριση με τις επαγγελματικες καρτες;

Δημοσ.

Η Titan είναι αυτό που λέει τ' όνομα της για επιστημονικές εφαρμογές. Μπορείς να δεις εδώ μερικά benchmarks, http://www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-performance-unveiled/3 . 

Έχει το ίδιο chip, το GK110, με τις κάρτες Tesla K20X και Κ20, http://www.nvidia.com/object/tesla-servers.html .

Δε γνωρίζω όμως τι προσφέρει παραπάνω η Tesla K20X, καθότι είναι 3,5 φορές ακριβότερη απ' τη Titan,  http://www.amazon.com/NVIDIA-TESLA-K20X-GB-MODULE/dp/B00AM0FD00

Δημοσ.

Λοιπόν, οπότε δεν είναι τα πράγματα όπως τα νόμιζα.

 

Εγώ θέλω να τρέχω προγράμματα που υπολογίζουν rainbow tables τα οποία χρησιμοποιούνται για ανεύρεση passwords.

 

Άρα μετράει απλά το πλήθος των πυρήνων cuda; Όσο πιο πολλοί τόσο πιο γρήγορα; Κάποια συμφέρουσα κάρτα με αυτό το δεδομένο;

Δημοσ.

Δεν μετράει μόνο το πλήθος των CUDA πυρήνων. Στην ίδια αρχιτεκτονική, όσο περισσότεροι πυρήνες τόσο το καλύτερο. 

Η σειρά 6xx της NVIDIA προσανατολίστηκε περισσότερο σε gaming perfomance, ενώ η σειρά 5xx είναι πιο all around και καλύτερη σε υπολογιστικές εφαρμογές στα περισσότερα σενάρια.  Ειδικά για τον υπολογισμόr rainbow tables δε γνωρίζω να σου πω ποια αρχιτεκτονική ταιριάζει καλύτερα. Παρόλα αυτά εγώ σου προτείνω να πάρεις μια gtx 570 ή ακόμα καλύτερα μια 580. Τη 570 μεταχειρισμένη νομίζω μπορείς να τη βρες γύρω στα 120€. 

Δημοσ.

Σε ευχαριστώ πολύ για τις υποδείξεις φίλε. Θα δω τι θα κάνω γιατί υπολόγιζα να έκανα δουλειά με λιγότερα χρήματα. Κάτω από 100 αν είναι δυνατόν.

Δημοσ.

Τότε κοιτάς για σειρά 4ΧΧ, 450 ~40-50€, 460 70-80€ μτχ. Λογικά και οι 2 θα είναι πιο γρήγορες από μια 640 αλλά μην σε κάψω κιόλας, θα πρέπει να το τσεκάρεις εσύ (αν υπάρχουν πουθενά CUDA benchmarks δλδ)

Δημοσ.

Μια GTX 460 είναι σίγουρα πολύ καλύτερη απ' την GT 640. Δεν υπάρχει αμφιβολία. Στις αγγελίες για GPUs υπάρχει μια 470 στα 95€.

Δημοσ.

Ναι σωστά είναι και η απάντηση στην ερώτηση είναι ναι. Το μέγεθος που συνδυάζει το clock της GPU με τον αριθμό των πυρήνων είναι ο θεωρητικός αριθμός των GFLOPS.

 

GFLOPS = core_clock * number_of_cores * 2.

 

Δες εδώ τα GFLOPS της 640, http://en.wikipedia.org/wiki/GeForce_600_Series

και τα GLOPS της σειράς 4xx, http://en.wikipedia.org/wiki/GeForce_400_Series

Δημοσ.

Δεν είναι πολύ πίσω η 640 τελικά, μάλλον αξίζει γιατί θα είναι και καινούρια με εγγύηση κτλ. Προσοχή όμως να είναι GDDR5.

Δημοσ.

Μάλιστα, αρχίζω να το πιάνω το νόημα.

 

Μετά από αυτές για καλύτερο (~150 ευρώ) πάμε στην GTX 650 Ti Boost καινούργια ή σε κάποια 570/580 μεταχειρισμένη που πρότεινε ο Αριστομάχος.

Δημοσ.

Γιατί όταν η 650 ti boost βγάζει 1400 GFLOPS να δεις για μτχ 570 που βγάζει πάνω κάτω τα ίδια ; Για development εγώ θα ήθελα και την αξιοπιστία / εγγύηση μιας καινούριας. Εσύ θα τα ζυγίσεις βέβαια, αλλά αν δεν την βρεις την 570 σε τιμή ευκαιρίας, δεν ξέρω κατά πόσο αξίζει.

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...