DaemonLord92 Δημοσ. 31 Ιουλίου 2018 Δημοσ. 31 Ιουλίου 2018 (επεξεργασμένο) Ποσό που διαθέτουμε : 3000 ευρώ Χρήση υπολογιστή : Κυρίως deep learning, computer vision, machine learning. Ειδικά προγράμματα που θα χρησιμοποιήσουμε: Tensor flow, OpenCV, Scikit-learn, PyTorch & Theano Αν στη σύνθεση χρειαζόμαστε οθόνη? Οχι, έχω 2 Dell Ultrasharp U2417HJ Αν στη σύνθεση χρειαζόμαστε και πληκτρολόγιο,ηχεία,ποντίκι? Οχι Τοποθεσία στην οποία βρισκόμαστε. Αθήνα Αν τα κομμάτια που θέλουμε να αγοράσουμε θέλουμε να είναι απο ένα κατάστημα ή επιθυμούμε την αγορά απο διαφορετικά καταστήματα? Δε με ενδιαφέρει Αν επιθυμούμε να συναρμολογηθεί το σύστημα στο κατάστημα(στην περίπτωση που δεν γνωρίζουμε πως να το συναρμολογήσουμε) ή το σύστημα θα στηθεί απο τον ενδιαφερόμενο? Θα το συναρμολογήσω μόνος. Αν επιθυμούμε λειτουργικό σύστημα και πιο . Linux Μερικά φιλαράκια και εγώ έχουμε μπει στα χωράφια του deep learning και είναι καιρός να χτισουμε ένα αξιοπρεπές desktop για να μπορούμε να κάνουμε τη δουλειά μας. Το ποσό που διαθέτουμε είναι καθαρά για το tower. Δε μας ενδιαφέρει ούτε η ομορφιά ούτε το άμα θα κάνει θόρυβο ή οχι. To build θα έχει δυο GPUs για αρχή (σκεφτομουν δυο 1070ti) και 32Gb RAM τουλαχιστον. Θα ασχοληθούμε σε πρώτη φάση με Object detection and classification και βλεπουμε. Ο λόγος που κάνω αυτό το ποστ ειναι επειδή είμαστε νεοι (αλλά το βλεπουμε σοβαρα) στον κόσμο του deep learning οποτε συμβουλές ως προς το build απο γνώστες του αντικειμένου ή απο ανθρώπους που γνωρίζουν τις απαιτήσεις του deep learning θα εκτιμηθούν ιδιαιτέρως. Στο ιντερνετ υπάρχουν πολλοι οδηγοί αλλα επειδη το budget ειναι συγκεκριμένο θέλουμε το μέγιστο bang for the buck. Y.Γ το budget μπορεί οριακα να παέι στα 3500 ευρώ αλλά μόνο σε εξαιρετικές περιπτώσεις (όπως πχ αν η αγορά του Χ εξαρτήματος θα βελτιώσει σημαντικά το build) Επεξ/σία 1 Αυγούστου 2018 από DaemonLord92
pnick Δημοσ. 1 Αυγούστου 2018 Δημοσ. 1 Αυγούστου 2018 To πρώτο διεξοδικό άρθρο που είχα διαβάσει για το deep learning και το hardware που χρειάζεται ήταν πριν μερικά χρόνια αυτό http://timdettmers.com/2015/03/09/deep-learning-hardware-guide/ . Ο ίδιος έχει γράψει αρκετά για το θέμα, και υπάρχουν και νεότερα άρθρα με πιό επικαιροποιημένα στοιχεία. Δεν έχω ασχοληθεί προσωπικά, απλά, όπως διαπιστώνει κανείς διαβάζοντας σχετικά, οι απαιτήσεις είναι παρόμοιες σχεδόν με το gpu rendering (με το οποίο ασχολούμαι), εκτός από ελάχιστα σημεία (OpenCV και Scikit τρέχουν μόνο σε cpu από ό,τι είδα, ενώ όλα τα υπόλοιπα ρίχνουν το βάρος στην gpu). Ουσιαστικά το preprocessing γίνεται στην cpu (ο παραλληλισμός στο deep learning από όσο διαβάζω δεν είναι πάντα εφικτός, συνήθως η καλή single threaded απόδοση είναι πιό σημαντική, με ελάχιστες εξαιρέσεις), και όλα τα υπόλοιπα γίνονται στις gpu, εφόσον μπορεί προγραμματιστικά να γίνει σωστός παραλληλισμός του υπολογιστικού φορτίου σε πολλαπλές gpu. Εκεί είναι λοιπόν το ζουμί. Στις gpu. Τί κάνουμε τώρα από hardware; Βασικές γραμμές νομίζω είναι αυτές: 1. Καλή single threaded απόδοση και ικανοποιητική cache. 2. Αρκετές pcie lanes για να σηκώσουν 3-4 gpu (ακόμα και 8 lanes ανά gpu αρκούν). Αναγκαστικά πάμε σε HEDT πλατφόρμες. Σε συνδυασμό με το (1) αυτή την στιγμή μιλάμε για έναν 7900Χ κατ' ελάχιστο. Δυστυχώς, καμία εταιρία δεν δίνει οικονομική cpu με συνδυασμό όλων των ανωτέρω. Για μένα ιδανικός για την περίπτωσή σας θα ήταν π.χ. ένας 8700Κ με 40+ lanes, αλλά δεν υπάρχει τέτοια επιλογή, ούτε καν παραπλήσια. 3. Μητρική με σωστή διαρρύθμιση στα pcie slots. 4. Η μνήμη συστήματος δεν έχει πολλές απαιτήσεις. Για το budget που έχετε, 32 gb θα ήταν η επιλογή μου, αν και πιστεύω ότι για την συγκεκριμένη θα επαρκούσαν και λιγότερα. 5. Το σημαντικό: gpu. Για μένα θα πρέπει να περιμένετε λίγο τις νέες nvidia. Αν πρέπει να γίνει άμεσα το ξεκίνημά σας, τότε κοιτάξτε για 1-2 1070, ίσως και μεταχειρισμένες για να μειωθεί το κόστος, και όταν με το καλό βγεί η 1100 σειρά, κάνετε σοβαρή αγορά τότε. 6. Από ssd τώρα, πάρτε έναν μεγάλο sata κατά την γνώμη μου. Μη ρίξετε πολλά λεφτά για nvme. Καμία διαφορά για την χρήση σας δεν θα έχει πιστεύω. 7. Τροφοδοτικό να πάρετε ένα που να μπορεί να αντέξει 3-4 gpu άνετα στο μέλλον. Μιλάμε λοιπόν για 1200W+ και καλό efficiency. Με βάση τα παραπάνω, και με την επιφύλαξη για την επιλογή των gpu όπως είπα παραπάνω, κάνω μια λίστα με το τί θα έβαζα εγώ. 1 Crucial MX500 1TB, SATA (CT1000MX500SSD1) 1 Intel Core i9-7900X, 10x 3.30GHz, boxed ohne Kühler (BX80673I97900X) 1 G.Skill RipJaws V schwarz DIMM Kit 32GB, DDR4-3200, CL16-16-16-36 (F4-3200C16Q-32GVK) 1 ASUS WS X299 Sage (90SW0070-M0EAY0) 1 Noctua NH-U14S 1 be quiet! Dark Base Pro 900 silber, Glasfenster, schallgedämmt (BGW12) 1 Corsair HX Series HX1200 80PLUS Platinum 1200W ATX 2.4 (CP-9020140) Αυτά βγαίνουν λίγο κάτω από 2300€. Και προσθέτετε πάνω σε αυτό το setup όσες gpu μπορείτε και έχει νόημα για την δουλειά σας. Έβαλα αυτή την μητρική γιατί υπάρχουν και κάρτες όπως αυτή http://www.galax.com/en/graphics-card/10-series/galax-geforcer-gtx-1070-katana.html που είναι single slot και ίσως μπορούσατε να βάλετε στο σύστημα και πάνω από 4 κάρτες, αν έχει νόημα επαναλαμβάνω. Προσωπικά, θα περίμενα την νέα σειρά της Nvidia, όπως προείπα. Μιλάμε για 25-30% καλύτερη απόδοση για τα αντίστοιχα μοντέλα (π.χ. 1070 vs 1170), αλλά και αρκετά μεγαλύτερη Vram που σήμερα θα βρείτε στα κορυφαία μοντέλα μόνο. Οπότε, άποψή μου είναι να ξεκινήσετε με 1-2 μεταχειρισμένες 1070 (ti) και από φθινόπωρο-χειμώνα ξανακοιτάτε το θέμα. 2
DaemonLord92 Δημοσ. 1 Αυγούστου 2018 Μέλος Δημοσ. 1 Αυγούστου 2018 Σε ευχαριστώ αδερφε. Να σου πω την αληθεια το σκεφτόμασταν πολύ σοβαρά να περιμένουμε τις νέες κάρτες γραφικών και συμφωνα με αυτά που λες αξίζει η αναμονή. Πρέπει να υπάρχουν δύο 1070ti στο εργαστήριο οποτε με βλέπω να τις "δανείζομαι" για αρχή και τα λεφτά που μένουν να τα δώσουμε για τη νέα σειρά της nvidia. Γνωρίζω καλα πως ο παραλληλισμός είναι δύσκολος εώς αδύνατος μερικές φορές αλλά οπως και να έχει μπορείς να δοκιμάσεις δύο μοντέλα ταυτόχρονα (ή δύο παραλλαγές του ίδιου μοντέλου) κάτι που πολλές φορές είναι πιο χρήσιμο από το να "τρέξεις" ένα μοντέλο πιο γρήγορα. Όταν δουλεύεις με μεγάλα data sets (θα δουλεψουμε με πολυ μεγάλα data sets) η παραπάνω ram βοηθάει αρκετά αλλα ναι, τα 32Gb είναι αρκετά για τώρα. Γενικά το build που προτείνεις μου αρέσει και, εφοσον δεν υπαρξει καποια αντιρρηση, μας βλεπω να κάνουμε το μεγάλο βήμα. Σε ευχαριστώ και παλι!
Geobe Δημοσ. 2 Αυγούστου 2018 Δημοσ. 2 Αυγούστου 2018 Παραλληλισμό μπορείς να πετύχεις αλλά εξαρτάται πρώτον από το μοντέλο και κατά δεύτερον από το πόσο καλά εφαρμόζεται ο παραλληλισμός στις gpus από το κάθε framework. Πανω σε αυτό έχω εικόνα από το keras (με backend tensorflow) και το caffe2. Και τα δυο υποστηρίζουν παραλληλισμό, βέβαια στο keras εχω διαβάσει αρκετα παράπονα για όχι και τόσο καλή υλοποίηση. Από την άλλη το caffe2 είναι αρκετά πιο ώριμο σε αυτόν τον τομέα (βέβαια φτήνεις αίμα για να το εγκαταστήσεις😋). Ένα model zoo για object detection που χρησιμοποιώ φτιαγμένο σε caffe2 έχει training schedules για 2-8 gpus παράλληλα απο default. Από ότι έχω διαβάσει σε σχετικά paper ανάλογα το μοντέλο το κέρδος χρόνου μπορεί να είναι και 100%. Δεν έχω ασχοληθεί όμως με παραλληλισμό μιας και δεν έχω πρόσβαση σε ανάλογο σύστημα. Γενικά το object detection απαιτεί αρκετή vram. Τρέχω διάφορα μοντέλα object detection (faster-rcnn, mask-rcnn, retinanet με διαφορα backbones) σε σύστημα που μου έχει παραχωρηθεί από την σχολή για την εκπόνηση της διπλωματικής μου και ανάλογα το μοντέλο εχω δεί χρήση vram μέχρι και 8-9gb σε titan xp (χωρις την default επιλογη που εχει το tensorflow για δεσμευση όλης της διαθεσιμης vram). Για τα μεγάλα datasets που λες συνήθως πιο αποτελεσματικά είναι μεγάλα δίκτυα τα οποία απαιτούν περισσότερη vram παρά ram συστήματος. Βέβαια ανάλογα το framework (εχω δουλέψει σε tensorflow, keras και Caffe2) ίσως κανεις δουλειά και με λιγοτερη vram. Στο σπίτι είχα καταφέρει να τρέξω σχετικά μικρό μοντέλο υλοποιημένο σε tensorflow (retinanet με backbone ρεσνετ50) σε 1060 6gb αλλά στην αρχή έβλεπα warning για λίγη μνήμη το οποιο δεν ηταν fatal απλά έχανα σε χρόνο. Αντίθετα το caffe2 δεν τρέχει αν δεν έχεις την απαιτούμενη vram. Η ram του συστήματος δεν εχει ξεφύγει ποτέ πάνω από τα 4-5gb (απο τα 32 που έχει το συστημα στη σχολή) όπως επίσης και η cpu (i7 5810k) συνήθως χρησιμοποιούνται 1-2 threads ανάλογα το training schedule και τι preprocessing έχω. Αν γίνει άμεσα το χτύσιμο του συστήματος ίσως θα μπορούσατε να πάτε σε λιγότερη ram και να συμπληρώσετε αργότερα που (λογικά) θα έχουν μειωθεί οι τιμές. Για τέτοιο σύστημα όμως τα 32gb ram, τουλάχιστον μελλοντικα, τα θεωρώ απαραίτητα. Επιπλέον το preprocessing αν γίνει έξυπνα δεν είναι τόσο απαιτητικό αλλά εξαρτάται και απο τα δεδομένα σου. Για παράδειγμα μια κλασσική διεργασία preprocessing είναι το data augmentation που μπορεί να γίνει και on the fly αλλά και από πριν χωρίς να καθυστερεί την εκπαίδευση του μοντέλου. Σε δοκιμές μου με data augmentation του tensorflow (με χρήση opencv)σαν preprocessing στο pc στο σπιτι η gpu καθόταν (5-10% utilization) και ο 2500K (ξέρω δεν συγκρίνεται σε δύναμη με τους σύγχρονους αλλά την παλεύει ακόμα) ήταν στο 100% και η εκπαίδευση ήθελε 4-5 φορές παραπάνω χρόνο. Δεν είναι απαραίτητα κανόνας αυτό αλλά γενικά το 99% του φόρτου στο deep learning το έχει η gpu και αυτή καθορίζει την χρονο εκπαίδευσης του μοντέλου. Θα συμφωνήσω απόλυτα με τον pnick για πλατφόρμα με πολλά lanes ωστε να υπάρχει η δυνατότητα για προσθήκη επιπλέων καρτών στο μέλλον. Δεν έχω εικόνα όμως για συγκεκριμένα κομμάτια και κόστος. Αν αξίζει να περιμένετε την νέα γενιά gpu εξαρτάται από το πόσο βιάζεστε να φτιάξετε το σύστημα. Σημαντικός παράγοντας θα είναι και το κόστος της νέας γενιάς και κατα πόσο θα αξίζουν (λόγω υψηλού κόστους) τους πρώτους μήνες (αργότερα σιγουρα θα αξίζουν). Επιπλέον και η ψύξη των gpu ειναι σημαντική, ειδικά αν είναι πολλαπλές, γιατί θα δουλεύουν στο full για ώρες. Ενδεικτικά η titan σε εκπαιδευση faster-rcnn (24-26ώρες) ηταν στους 80 βαθμούς με χρήση στο 100%. Αυτά από εμένα. 4
SakafliaC Δημοσ. 2 Αυγούστου 2018 Δημοσ. 2 Αυγούστου 2018 Επειδή το google δε βοήθησε ιδιαίτερα, τι ακριβώς είναι το deep learning?
pnick Δημοσ. 2 Αυγούστου 2018 Δημοσ. 2 Αυγούστου 2018 5 ώρες πριν, Geobe είπε Παραλληλισμό μπορείς να πετύχεις αλλά εξαρτάται πρώτον από το μοντέλο και κατά δεύτερον από το πόσο καλά εφαρμόζεται ο παραλληλισμός στις gpus από το κάθε framework. Πανω σε αυτό έχω εικόνα από το keras (με backend tensorflow) και το caffe2. Και τα δυο υποστηρίζουν παραλληλισμό, βέβαια στο keras εχω διαβάσει αρκετα παράπονα για όχι και τόσο καλή υλοποίηση. Από την άλλη το caffe2 είναι αρκετά πιο ώριμο σε αυτόν τον τομέα (βέβαια φτήνεις αίμα για να το εγκαταστήσεις😋). Ένα model zoo για object detection που χρησιμοποιώ φτιαγμένο σε caffe2 έχει training schedules για 2-8 gpus παράλληλα απο default. Από ότι έχω διαβάσει σε σχετικά paper ανάλογα το μοντέλο το κέρδος χρόνου μπορεί να είναι και 100%. Δεν έχω ασχοληθεί όμως με παραλληλισμό μιας και δεν έχω πρόσβαση σε ανάλογο σύστημα. Γενικά το object detection απαιτεί αρκετή vram. Τρέχω διάφορα μοντέλα object detection (faster-rcnn, mask-rcnn, retinanet με διαφορα backbones) σε σύστημα που μου έχει παραχωρηθεί από την σχολή για την εκπόνηση της διπλωματικής μου και ανάλογα το μοντέλο εχω δεί χρήση vram μέχρι και 8-9gb σε titan xp (χωρις την default επιλογη που εχει το tensorflow για δεσμευση όλης της διαθεσιμης vram). Για τα μεγάλα datasets που λες συνήθως πιο αποτελεσματικά είναι μεγάλα δίκτυα τα οποία απαιτούν περισσότερη vram παρά ram συστήματος. Βέβαια ανάλογα το framework (εχω δουλέψει σε tensorflow, keras και Caffe2) ίσως κανεις δουλειά και με λιγοτερη vram. Στο σπίτι είχα καταφέρει να τρέξω σχετικά μικρό μοντέλο υλοποιημένο σε tensorflow (retinanet με backbone ρεσνετ50) σε 1060 6gb αλλά στην αρχή έβλεπα warning για λίγη μνήμη το οποιο δεν ηταν fatal απλά έχανα σε χρόνο. Αντίθετα το caffe2 δεν τρέχει αν δεν έχεις την απαιτούμενη vram. Η ram του συστήματος δεν εχει ξεφύγει ποτέ πάνω από τα 4-5gb (απο τα 32 που έχει το συστημα στη σχολή) όπως επίσης και η cpu (i7 5810k) συνήθως χρησιμοποιούνται 1-2 threads ανάλογα το training schedule και τι preprocessing έχω. Αν γίνει άμεσα το χτύσιμο του συστήματος ίσως θα μπορούσατε να πάτε σε λιγότερη ram και να συμπληρώσετε αργότερα που (λογικά) θα έχουν μειωθεί οι τιμές. Για τέτοιο σύστημα όμως τα 32gb ram, τουλάχιστον μελλοντικα, τα θεωρώ απαραίτητα. Επιπλέον το preprocessing αν γίνει έξυπνα δεν είναι τόσο απαιτητικό αλλά εξαρτάται και απο τα δεδομένα σου. Για παράδειγμα μια κλασσική διεργασία preprocessing είναι το data augmentation που μπορεί να γίνει και on the fly αλλά και από πριν χωρίς να καθυστερεί την εκπαίδευση του μοντέλου. Σε δοκιμές μου με data augmentation του tensorflow (με χρήση opencv)σαν preprocessing στο pc στο σπιτι η gpu καθόταν (5-10% utilization) και ο 2500K (ξέρω δεν συγκρίνεται σε δύναμη με τους σύγχρονους αλλά την παλεύει ακόμα) ήταν στο 100% και η εκπαίδευση ήθελε 4-5 φορές παραπάνω χρόνο. Δεν είναι απαραίτητα κανόνας αυτό αλλά γενικά το 99% του φόρτου στο deep learning το έχει η gpu και αυτή καθορίζει την χρονο εκπαίδευσης του μοντέλου. Θα συμφωνήσω απόλυτα με τον pnick για πλατφόρμα με πολλά lanes ωστε να υπάρχει η δυνατότητα για προσθήκη επιπλέων καρτών στο μέλλον. Δεν έχω εικόνα όμως για συγκεκριμένα κομμάτια και κόστος. Αν αξίζει να περιμένετε την νέα γενιά gpu εξαρτάται από το πόσο βιάζεστε να φτιάξετε το σύστημα. Σημαντικός παράγοντας θα είναι και το κόστος της νέας γενιάς και κατα πόσο θα αξίζουν (λόγω υψηλού κόστους) τους πρώτους μήνες (αργότερα σιγουρα θα αξίζουν). Επιπλέον και η ψύξη των gpu ειναι σημαντική, ειδικά αν είναι πολλαπλές, γιατί θα δουλεύουν στο full για ώρες. Ενδεικτικά η titan σε εκπαιδευση faster-rcnn (24-26ώρες) ηταν στους 80 βαθμούς με χρήση στο 100%. Αυτά από εμένα. Ένα like είναι λίγο. Χαίρεσαι να διαβάζεις. Και ευχαριστούμε για τις ενδιαφέρουσες πληροφορίες για το θέμα και για το πώς και πόσο το hardware συνεισφέρει στον τομέα αυτόν.
DaemonLord92 Δημοσ. 2 Αυγούστου 2018 Μέλος Δημοσ. 2 Αυγούστου 2018 6 ώρες πριν, Geobe είπε Παραλληλισμό μπορείς να πετύχεις αλλά εξαρτάται πρώτον από το μοντέλο και κατά δεύτερον από το πόσο καλά εφαρμόζεται ο παραλληλισμός στις gpus από το κάθε framework. Πανω σε αυτό έχω εικόνα από το keras (με backend tensorflow) και το caffe2. Και τα δυο υποστηρίζουν παραλληλισμό, βέβαια στο keras εχω διαβάσει αρκετα παράπονα για όχι και τόσο καλή υλοποίηση. Από την άλλη το caffe2 είναι αρκετά πιο ώριμο σε αυτόν τον τομέα (βέβαια φτήνεις αίμα για να το εγκαταστήσεις😋). Ένα model zoo για object detection που χρησιμοποιώ φτιαγμένο σε caffe2 έχει training schedules για 2-8 gpus παράλληλα απο default. Από ότι έχω διαβάσει σε σχετικά paper ανάλογα το μοντέλο το κέρδος χρόνου μπορεί να είναι και 100%. Δεν έχω ασχοληθεί όμως με παραλληλισμό μιας και δεν έχω πρόσβαση σε ανάλογο σύστημα. Γενικά το object detection απαιτεί αρκετή vram. Τρέχω διάφορα μοντέλα object detection (faster-rcnn, mask-rcnn, retinanet με διαφορα backbones) σε σύστημα που μου έχει παραχωρηθεί από την σχολή για την εκπόνηση της διπλωματικής μου και ανάλογα το μοντέλο εχω δεί χρήση vram μέχρι και 8-9gb σε titan xp (χωρις την default επιλογη που εχει το tensorflow για δεσμευση όλης της διαθεσιμης vram). Για τα μεγάλα datasets που λες συνήθως πιο αποτελεσματικά είναι μεγάλα δίκτυα τα οποία απαιτούν περισσότερη vram παρά ram συστήματος. Βέβαια ανάλογα το framework (εχω δουλέψει σε tensorflow, keras και Caffe2) ίσως κανεις δουλειά και με λιγοτερη vram. Στο σπίτι είχα καταφέρει να τρέξω σχετικά μικρό μοντέλο υλοποιημένο σε tensorflow (retinanet με backbone ρεσνετ50) σε 1060 6gb αλλά στην αρχή έβλεπα warning για λίγη μνήμη το οποιο δεν ηταν fatal απλά έχανα σε χρόνο. Αντίθετα το caffe2 δεν τρέχει αν δεν έχεις την απαιτούμενη vram. Η ram του συστήματος δεν εχει ξεφύγει ποτέ πάνω από τα 4-5gb (απο τα 32 που έχει το συστημα στη σχολή) όπως επίσης και η cpu (i7 5810k) συνήθως χρησιμοποιούνται 1-2 threads ανάλογα το training schedule και τι preprocessing έχω. Αν γίνει άμεσα το χτύσιμο του συστήματος ίσως θα μπορούσατε να πάτε σε λιγότερη ram και να συμπληρώσετε αργότερα που (λογικά) θα έχουν μειωθεί οι τιμές. Για τέτοιο σύστημα όμως τα 32gb ram, τουλάχιστον μελλοντικα, τα θεωρώ απαραίτητα. Επιπλέον το preprocessing αν γίνει έξυπνα δεν είναι τόσο απαιτητικό αλλά εξαρτάται και απο τα δεδομένα σου. Για παράδειγμα μια κλασσική διεργασία preprocessing είναι το data augmentation που μπορεί να γίνει και on the fly αλλά και από πριν χωρίς να καθυστερεί την εκπαίδευση του μοντέλου. Σε δοκιμές μου με data augmentation του tensorflow (με χρήση opencv)σαν preprocessing στο pc στο σπιτι η gpu καθόταν (5-10% utilization) και ο 2500K (ξέρω δεν συγκρίνεται σε δύναμη με τους σύγχρονους αλλά την παλεύει ακόμα) ήταν στο 100% και η εκπαίδευση ήθελε 4-5 φορές παραπάνω χρόνο. Δεν είναι απαραίτητα κανόνας αυτό αλλά γενικά το 99% του φόρτου στο deep learning το έχει η gpu και αυτή καθορίζει την χρονο εκπαίδευσης του μοντέλου. Θα συμφωνήσω απόλυτα με τον pnick για πλατφόρμα με πολλά lanes ωστε να υπάρχει η δυνατότητα για προσθήκη επιπλέων καρτών στο μέλλον. Δεν έχω εικόνα όμως για συγκεκριμένα κομμάτια και κόστος. Αν αξίζει να περιμένετε την νέα γενιά gpu εξαρτάται από το πόσο βιάζεστε να φτιάξετε το σύστημα. Σημαντικός παράγοντας θα είναι και το κόστος της νέας γενιάς και κατα πόσο θα αξίζουν (λόγω υψηλού κόστους) τους πρώτους μήνες (αργότερα σιγουρα θα αξίζουν). Επιπλέον και η ψύξη των gpu ειναι σημαντική, ειδικά αν είναι πολλαπλές, γιατί θα δουλεύουν στο full για ώρες. Ενδεικτικά η titan σε εκπαιδευση faster-rcnn (24-26ώρες) ηταν στους 80 βαθμούς με χρήση στο 100%. Αυτά από εμένα. Κατατοπιστικότατο ποστ. Δε μπορω να σε ευχαριστήσω αρκετά.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα