poscaman Δημοσ. 7 Δεκεμβρίου 2008 Δημοσ. 7 Δεκεμβρίου 2008 In August 2008 a post in the Nvidia-CUDA forums announced[8] the possibility to enhance the performance of brute force attacks against WPA-PSK by a factor of 30 and more. The time-consuming PBKDF2-computation is taken from the CPU to a GPU which can compute many passwords and their corresponding Pre-shared keys in parallel. The expected time to successfully guess a common password by at least 50% shrinks to about 2-3 days by that.[9] Some consumer chip manufacturers have attempted to bypass weak passphrase choice by adding a method of automatically generating and distributing strong keys through a software or hardware interface that uses an external method of adding a new wireless adapter or appliance to a network. The Wi-Fi Alliance has standardized these methods and certifies compliance with these standards through a program called Wi-Fi Protected Setup (formerly Simple Config). A weakness was uncovered in November 2008 by researchers at two German technical universities, Erik Tews and Martin Beck[10], which relied on a previously known flaw in WEP that could be exploited only for the TKIP algorithm in WPA and WPA2. The flaw can only decrypt short packets with mostly known contents, such as ARP messages, and 802.11e, which allows Quality of Service packet prioritization for voice calls and streaming media. The flaw does not lead to key recovery, but only a keystream that encrypted a particular packet, and which can be reused as many as seven times to inject arbitrary data of the same packet length to a wireless client. wikipedia ναι....
Super Moderators Thresh Δημοσ. 7 Δεκεμβρίου 2008 Super Moderators Δημοσ. 7 Δεκεμβρίου 2008 oh ok then, my bad (για άλλη μια φορα μάλλον)
Super Moderators Thresh Δημοσ. 7 Δεκεμβρίου 2008 Super Moderators Δημοσ. 7 Δεκεμβρίου 2008 μάλλον το έχω ξαναμπερδέψει και παλιότερα από ότι μου είπε ο Farcry στο msn
FarCry Δημοσ. 7 Δεκεμβρίου 2008 Δημοσ. 7 Δεκεμβρίου 2008 ψήνεται κανεις για πειραματισμούς? http://www.elcomsoft.com/edpr.html#formats
assaya Δημοσ. 7 Δεκεμβρίου 2008 Δημοσ. 7 Δεκεμβρίου 2008 poscaman εννοείς ότι το matlab είναι CUDA optimized? γιατί κάτι από αυτά που τρέχω είναι σε matlab...
Super Moderators Thresh Δημοσ. 7 Δεκεμβρίου 2008 Super Moderators Δημοσ. 7 Δεκεμβρίου 2008 το Mathematica είναι optimized, ίσως και το matlab αλλά δεν είμαι 100% σίγουρος
poscaman Δημοσ. 7 Δεκεμβρίου 2008 Δημοσ. 7 Δεκεμβρίου 2008 κανε ενα google search.καπου το ειχα δει αλλα αυτη τη στιγμη δεν τον βρισκω.το πρωτο που βρηκα ειναι αυτο http://developer.nvidia.com/object/matlab_cuda.html
gtroza Δημοσ. 7 Δεκεμβρίου 2008 Δημοσ. 7 Δεκεμβρίου 2008 το Fastra εχει γινει εδω και παρα πολυ καιρο, και απλα χρησιμοποιει το CUDA της nvidia για να τρεξει τις εφαρμογες στις καρτες γραφικων και οχι στον cpu...εχει 4 9800GX2, δηλαδη 8 gpu...οι οποιες ειναι φτιαγμενες για Gaming οι υπολογιστες της ειδησης ομως, εχουν ειδικες gpu Οχι για gaming αλλα ΜΟΝΟ για επαγγελματικη χρηση, εν ονοματι Tesla. χαμος με τις gpu... το είχα υπ' όψιν μου (1-2 μήνες πρίν, νομίζω, έγινε η ανακοίνωση για την κάρτα) έβαλα το link για "προβληματισμό" τι σκέφτονται οι άνθρωποι, ως "δημιουργοί" συμφωνώ για το "χαμος με τις gpu..." θα πρόσθετα και με τις cpu ! .
grimpr Δημοσ. 8 Δεκεμβρίου 2008 Δημοσ. 8 Δεκεμβρίου 2008 Η μεγάλη επανάσταση στο computing είναι εδώ. δέστε τις ζώνες σας με την Nvidia στο πιλοτήριο, το μέλλον ανήκει στις GPU.
FarCry Δημοσ. 8 Δεκεμβρίου 2008 Δημοσ. 8 Δεκεμβρίου 2008 καλά αν βάλεις το τέσλα για ώρα cracking νομίζω το spas αρκετά γρήγορα.
Missionary Δημοσ. 8 Δεκεμβρίου 2008 Δημοσ. 8 Δεκεμβρίου 2008 University of Antwerp makes 4000EUR NVIDIA supercomputer Posted on Thursday, May 29 2008 @ 18:21:34 CEST by Thomas De Maesschalck http://www.dvhardware.net/article27538.html . Σε αυτό το πανεπιστήμιο θα πάω τον Φεβρουάριο για erasmus xε!
dop Δημοσ. 8 Δεκεμβρίου 2008 Δημοσ. 8 Δεκεμβρίου 2008 Για να χρησιμοποιήσεις αυτό το πράμα πρέπει: 1) να είσαι ικανός να βρεις αρκετά μεγάλα κομμάτια κώδικα που να μπορείς να τα τρέξεις παράλληλα 2) να μη χρειάζεται να μεταφέρεις συνέχεια δεδομένα από την κυρίως μνήμη στην μνήμη της κάρτας γραφικών 3) να έχεις καλά interfaces για να μιλάς με το CUDA καθώς το ίδιο το CUDA είναι αφύσικα δύσκολο να το προγραμματίσεις. Επιπλέον, μια και είναι C-based, πρέπει να έχεις τα bindings για άλλες γλώσσες. Τώρα, το Tesla Personal Supercomputer το είδα από κοντά και περισσότερο είναι marketing hype προς το παρόν παρά η φοβερή λύση της δεκαετίας. Η nVidia πιέζει πολύ για να περάσει στην αγορά και να δεχτεί ο κόσμος το CUDA, καθώς από αυτό κρίνεται η επιβίωσή της, μια και σύντομα το graphics acceleration θα είναι processor-based και επιπλέον οι δύο μεγάλοι (AMD-Intel) δεν πρόκειται να την αφήσουν ήσυχη. Ουσιαστικά στρέφεται και πάλι σε αυτό που ήξερε να κάνει παλιά, τους συνεπεξεργαστές. Ναι, αν υπάρξει κάποιο αξιόπιστο framework που να έχει όλα τα features που χρειάζονται για καθημερινό προγραμματισμό, συν κάποιες συχνά χρησιμοποιούμενες συναρτήσεις και επιπλέον τα tasks του προγράμματος είναι αρκετά coarse-grained, τότε έχει νόημα η όλη ιστορία και όντως δουλεύει. Αν από την άλλη, δεν ισχύει κάτι από όλα αυτά, απλά θα πεθάνει και θα το ανακαλύψουν και πάλι σε καμιά δεκαετία (ας ψάξει κανείς για vector processors και massively parallel processors για να δει πόσα χρόνια πήρε να βγουν εκτός μόδας και μετά να ανακαλυφτούν και πάλι). Προσωπικά, δε νομίζω ότι θα κρατήσει πάνω από 2 χρόνια. Μέχρι τότε, θα έχει βγει το Larrabee και θα είναι ώριμο, οι επεξεργαστές θα έχουν φτάσει το ανώτερο των 24-32 επεξεργαστών για bus-based αρχιτεκτονική και τότε θα ανακαλύψουν πάλι τις NUMA machines. Επιπλέον, τα προγράμματα θα πρέπει να είναι fine-grained, εν αντιθέσει με τα coarse-grained του CUDA, για λόγους load-balancing. ΥΓ. κάτι είναι coarse-grained όταν ο λόγος computation προς communication είναι μεγάλος και fine-grained όταν είναι μικρός. Είναι λίγο λογικός χωρισμός, παρά μαθηματικός και πρακτικά σημαίνει ότι όταν έχει πολλές μικρές δουλειές τότε μπορείς να κάνεις καλύτερο καταμερισμό αλλά έχεις μεγάλο overhead λόγω της πολλής επικοινωνίας. Αν από την άλλη είναι πολύ coarse-grained, ελαχιστοποιείται η επικοινωνία, αλλά άμα ένα task δεν έχει τελειώσει, τότε όλοι το περιμένουν κάνοντας τίποτα και φυσικά δεν μπορείς να το σπάσεις περαιτέρω. Το βέλτιστο βρίσκεται κάπου στη μέση.
Super Moderators Thresh Δημοσ. 8 Δεκεμβρίου 2008 Super Moderators Δημοσ. 8 Δεκεμβρίου 2008 οι δύο μεγάλοι (AMD-Intel) δεν πρόκειται να την αφήσουν ήσυχη. η ειρωνία είναι ότι η Nvidia είναι πιο "μεγάλη" (οικονομικά) από την AMD/ATI
dop Δημοσ. 8 Δεκεμβρίου 2008 Δημοσ. 8 Δεκεμβρίου 2008 η ειρωνία είναι ότι η Nvidia είναι πιο "μεγάλη" (οικονομικά) από την AMD/ATI Χμμ, ίσως να οφείλεται στο split της AMD σε δύο εταιρίες. Από την άλλη η nVidia δεν έχει άδεια κατασκευής x86...
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα