Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.
In August 2008 a post in the Nvidia-CUDA forums announced[8] the possibility to enhance the performance of brute force attacks against WPA-PSK by a factor of 30 and more. The time-consuming PBKDF2-computation is taken from the CPU to a GPU which can compute many passwords and their corresponding Pre-shared keys in parallel. The expected time to successfully guess a common password by at least 50% shrinks to about 2-3 days by that.[9] Some consumer chip manufacturers have attempted to bypass weak passphrase choice by adding a method of automatically generating and distributing strong keys through a software or hardware interface that uses an external method of adding a new wireless adapter or appliance to a network. The Wi-Fi Alliance has standardized these methods and certifies compliance with these standards through a program called Wi-Fi Protected Setup (formerly Simple Config).

A weakness was uncovered in November 2008 by researchers at two German technical universities, Erik Tews and Martin Beck[10], which relied on a previously known flaw in WEP that could be exploited only for the TKIP algorithm in WPA and WPA2. The flaw can only decrypt short packets with mostly known contents, such as ARP messages, and 802.11e, which allows Quality of Service packet prioritization for voice calls and streaming media. The flaw does not lead to key recovery, but only a keystream that encrypted a particular packet, and which can be reused as many as seven times to inject arbitrary data of the same packet length to a wireless client.

wikipedia

 

ναι....

  • Απαντ. 71
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Συχνή συμμετοχή στο θέμα

  • Super Moderators
Δημοσ.

μάλλον το έχω ξαναμπερδέψει και παλιότερα από ότι μου είπε ο Farcry στο msn :o

Δημοσ.
το Fastra εχει γινει εδω και παρα πολυ καιρο, και απλα χρησιμοποιει το CUDA της nvidia για να τρεξει τις εφαρμογες στις καρτες γραφικων και οχι στον cpu...

εχει 4 9800GX2, δηλαδη 8 gpu...οι οποιες ειναι φτιαγμενες για Gaming

 

 

οι υπολογιστες της ειδησης ομως, εχουν ειδικες gpu Οχι για gaming αλλα ΜΟΝΟ για επαγγελματικη χρηση, εν ονοματι Tesla.

 

χαμος με τις gpu...

 

το είχα υπ' όψιν μου (1-2 μήνες πρίν, νομίζω, έγινε η ανακοίνωση για την κάρτα)

έβαλα το link για "προβληματισμό"

τι σκέφτονται οι άνθρωποι, ως "δημιουργοί"

 

συμφωνώ για το "χαμος με τις gpu..."

θα πρόσθετα και με τις cpu !

.

Δημοσ.

Η μεγάλη επανάσταση στο computing είναι εδώ. δέστε τις ζώνες σας με την Nvidia στο πιλοτήριο, το μέλλον ανήκει στις GPU.

Δημοσ.

Για να χρησιμοποιήσεις αυτό το πράμα πρέπει:

 

1) να είσαι ικανός να βρεις αρκετά μεγάλα κομμάτια κώδικα που να μπορείς να τα τρέξεις παράλληλα

2) να μη χρειάζεται να μεταφέρεις συνέχεια δεδομένα από την κυρίως μνήμη στην μνήμη της κάρτας γραφικών

3) να έχεις καλά interfaces για να μιλάς με το CUDA καθώς το ίδιο το CUDA είναι αφύσικα δύσκολο να το προγραμματίσεις. Επιπλέον, μια και είναι C-based, πρέπει να έχεις τα bindings για άλλες γλώσσες.

 

Τώρα, το Tesla Personal Supercomputer το είδα από κοντά και περισσότερο είναι marketing hype προς το παρόν παρά η φοβερή λύση της δεκαετίας. Η nVidia πιέζει πολύ για να περάσει στην αγορά και να δεχτεί ο κόσμος το CUDA, καθώς από αυτό κρίνεται η επιβίωσή της, μια και σύντομα το graphics acceleration θα είναι processor-based και επιπλέον οι δύο μεγάλοι (AMD-Intel) δεν πρόκειται να την αφήσουν ήσυχη. Ουσιαστικά στρέφεται και πάλι σε αυτό που ήξερε να κάνει παλιά, τους συνεπεξεργαστές.

 

Ναι, αν υπάρξει κάποιο αξιόπιστο framework που να έχει όλα τα features που χρειάζονται για καθημερινό προγραμματισμό, συν κάποιες συχνά χρησιμοποιούμενες συναρτήσεις και επιπλέον τα tasks του προγράμματος είναι αρκετά coarse-grained, τότε έχει νόημα η όλη ιστορία και όντως δουλεύει. Αν από την άλλη, δεν ισχύει κάτι από όλα αυτά, απλά θα πεθάνει και θα το ανακαλύψουν και πάλι σε καμιά δεκαετία (ας ψάξει κανείς για vector processors και massively parallel processors για να δει πόσα χρόνια πήρε να βγουν εκτός μόδας και μετά να ανακαλυφτούν και πάλι).

 

Προσωπικά, δε νομίζω ότι θα κρατήσει πάνω από 2 χρόνια. Μέχρι τότε, θα έχει βγει το Larrabee και θα είναι ώριμο, οι επεξεργαστές θα έχουν φτάσει το ανώτερο των 24-32 επεξεργαστών για bus-based αρχιτεκτονική και τότε θα ανακαλύψουν πάλι τις NUMA machines. Επιπλέον, τα προγράμματα θα πρέπει να είναι fine-grained, εν αντιθέσει με τα coarse-grained του CUDA, για λόγους load-balancing.

 

 

ΥΓ. κάτι είναι coarse-grained όταν ο λόγος computation προς communication είναι μεγάλος και fine-grained όταν είναι μικρός. Είναι λίγο λογικός χωρισμός, παρά μαθηματικός και πρακτικά σημαίνει ότι όταν έχει πολλές μικρές δουλειές τότε μπορείς να κάνεις καλύτερο καταμερισμό αλλά έχεις μεγάλο overhead λόγω της πολλής επικοινωνίας. Αν από την άλλη είναι πολύ coarse-grained, ελαχιστοποιείται η επικοινωνία, αλλά άμα ένα task δεν έχει τελειώσει, τότε όλοι το περιμένουν κάνοντας τίποτα και φυσικά δεν μπορείς να το σπάσεις περαιτέρω. Το βέλτιστο βρίσκεται κάπου στη μέση.

  • Super Moderators
Δημοσ.
οι δύο μεγάλοι (AMD-Intel) δεν πρόκειται να την αφήσουν ήσυχη.

 

η ειρωνία είναι ότι η Nvidia είναι πιο "μεγάλη" (οικονομικά) από την AMD/ATI :P

Δημοσ.
η ειρωνία είναι ότι η Nvidia είναι πιο "μεγάλη" (οικονομικά) από την AMD/ATI :P

 

Χμμ, ίσως να οφείλεται στο split της AMD σε δύο εταιρίες. Από την άλλη η nVidia δεν έχει άδεια κατασκευής x86...

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...