Ailuros Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Κοίτα ο Kanter γράφει λίγο πολύπλοκα άρθρα για τα γούστα μου και μετά την δεύτερη σελίδα συνήθως αρχίζω να ζαλίζομαι. ΄Εναν έχω υπόψη μόνο ο οποίος έχει απίστευτο ταλέντο στο να να κάνει και τα πιο πολύπλοκα πράγματα κατανοητά και στον πιο απλό αναγνώστη χωρίς να επιρεάζεται η τελική ποιότητα του άρθρου και ήταν από τους θεμέλιους λίθους του B3D: O κ.κ. Kristof Beets που στα 19+ του ξεκίνησε να δουλεύει ως DevRel στην 3dfx και σήμερα είναι υψηλόβαθμο στέλεχος στην IMG/PowerVR. Χθες μπήκα μετά από πολύ καιρό στο IRC κανάλι του B3D και το γέλιο που έριξα ήταν απίστευτο. Δυστυχώς οι κανόνες του καναλιού δεν επιτρέπουν να μεταφέρω το τι συζητείτε αλλά όταν γίνονται κάποιες συζητήσεις μπορείς μέσα σε ένα μισάωρο να καταλάβεις τι γίνεται στην αγορά. Τέλος πάντων πίσω στο θέμα μας... μια άλλη προοπτική από τον Democoder (δημιουργός είναι ο άνθρωπος) στο B3D: HPC is a niche market. No way companies building out massive cloud infrastructure (Google, Microsoft, Amazon, Rackspace, et al) are going to go with GPUs. It's too risky and too incompatible when going with cheap, commodity, x86 hardware (even if inefficient at tasks NV does well). By most accounts, Google's cluster is about 1 million servers. NVidia sells far more than 1mil GPUs to consumers. If you add up all of the server-side customers and HPC installations, it won't come close to the revenue numbers they pull in from retail/OEM. Sure, HPC margins might be higher, but overall, concentrating on GPGPU at the expense of retail/OEM/mobile would doom the company into bit-player status. In short, there is no way Fermi is built on some insane business model. Well, there is, but then Jensen should be shot. I think the reality is, NV is just evolving their architecture, and this is where it took them. They are not going to reboot it into an ATI-like architecture, they're going to continue to refine it and see where it takes them. I think they added DP and ECC not as a major focus, but because they had spare transistor budget to do it, and customers were asking. It's a risk, but why is no one postulating that AMD is forsaking graphics by adding DP when it did? The markers are just trumping up DP and ECC as major bullet points at this point, I wouldn't read too much into it. http://forum.beyond3d.com/showpost.php?p=1342562&postcount=117 Κι άλλες φωτογραφιούλες: http://www.pcpop.com/doc/0/448/448052.shtml Να θυμάστε ότι αφού είναι Tesla GPU είναι για την επαγγελματική αγορά. Κύριος είδε πόση μνήμη έχει αφού το μέγιστο που υποστηρίζει το GF100 είναι μέχρι 6GB. Στις απλές κάρτες περιμένω 1.5 άντε 3 γίγα ειδική έκδοση. Επίσης ο πυρήνας δεν μου μοιάζει και τόσο τεράστιος πια αλλά μπορεί να κάνω και λάθος. ---------- Το μήνυμα προστέθηκε στις 13:25 ---------- Εγώ πάλι ως πιο αφελής, αυτό που δεν καταλαβαίνω είναι γιατί δεν βαράνε μια συγχώνευση, να των πιούμε εμείς και να χ@στούν αυτοί στο χρήμα δυο είναι! τι διάολο... δεν μπορούν κάπως να τα βρουν ; Mε την Intel εννοείς; Και να το δεχόταν η NV που δεν το πιστεύω δεν νομίζω ότι είναι νομικά εφικτό μιας και θα έκανε την Intel υπεργίγαντα (όχι ότι δεν είναι ήδη).
FarCry Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 να πω και εγω την αποψη μου περι του θεματος... μου δινεται η εντυπωση οτι αρχιζει οπως ειπε και ο ailuros να ξεφευγει το πραγμα οσον αφορα την nvidia και να επικεντρωνεται σε μεγαλυτερη γκαμα πελατων μιας που αυτη η γενια ενσωματωνει και supercomputing capabilities. οποτε για το actual performance ισως πρεπει να αλλαξει και το software development ωστε να χρησιμοποιηθουν οι καινοτομιες που προσφερει η nvidia και λειπουν απο την ΑΤΙ. τι θελω να πω βασικα.... απλα να μη γινει επαναληψη της ιστοριας μεταξυ του xbox 360 και του ps3 οπου μεν ο cell ριχνει τα αυτια στον cpu της ibm δε ομως στο xbox 360 παιζουν καλυτερα γιατι απλα οι developers δεν αξιοποιουν ολο αυτο το raw power....προβλεπω να γινεται η nvidia κατι σαν το iphone....special κατηγορια στις καρτες γραφικων που θα παιζει μονη της....βεβαια αν πιασει τοτε ισως την ακολουθησει και η ΑΤΙ με το fusion που δεν προβλεπεται μεχρι το 2012 να εμφανιστει....
tmjuju Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Μετά και την ανάγνωση του http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=11 Μπορώ να προσθέσω άλλο ένα Μπράβο! Όπως πολλές φορές έχω πει στο παρελθόν τα παραδείγματα υπήρχαν. Οι μηχανικοί έριξαν το διάβασμα τους και ακολούθησαν λύσεις που έχουμε δει ως τώρα μόνο σε εξωτικούς επεξεργαστές όπως ο Niagara II (τον οποίο σκοτώνει η Oracle) και ακόμα και κάποια τρικ του EV8. Από όσα έχουν ανακοινωθεί, βλέπω μεν ότι οι μηχανικοί στριμωχτήκαν λίγο και αναγκαστήκαν να χρησιμοποιήσουν τεχνάσματα περίπλοκα και δύσκολα, αλλά το μόνο σίγουρο είναι ότι ακλουθώντας την ίδια ρότα μπορούν στην επόμενη γενιά απλά να πλατύνουν λίγο ότι δεν πλάτυναν αυτή τη φορά. Γενικά, είναι μια πολύ πιο καθαρή αρχιτεκτονική λύση στα μάτια μου.
euklidis Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Ετσι οπως το βλεπω για εμενα τουλαχιστον. Οι ΑΤΙ 58χχ θα περασει και ουτε που θα ακουμπησει. Αρα ειμαι εν αναμονη GT300 της nvidia που ξερω και σιγουρα απο τωρα οτι θα βγαλει σωστους drivers για λινουξ, οχι σαν την ΑΤΙ που τωρα βγαζει drivers για 45000 πυρηνες πισω και στους καινουριους δεν παιζουν ουτε video...
Ailuros Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 να πω και εγω την αποψη μου περι του θεματος... μου δινεται η εντυπωση οτι αρχιζει οπως ειπε και ο ailuros να ξεφευγει το πραγμα οσον αφορα την nvidia και να επικεντρωνεται σε μεγαλυτερη γκαμα πελατων μιας που αυτη η γενια ενσωματωνει και supercomputing capabilities. οποτε για το actual performance ισως πρεπει να αλλαξει και το software development ωστε να χρησιμοποιηθουν οι καινοτομιες που προσφερει η nvidia και λειπουν απο την ΑΤΙ. τι θελω να πω βασικα.... Είναι μεγάλη υπόθεση να δίνεις όσα περισσότερα εργαλεία μπορείς τόσο σε επίπεδο hw όσο και σε επίπεδο λογισμικό στους δημιουργούς. Δεν προβλέπω ωστόσο αυτά τα προτερήματα τα οποία είναι γνωστά μέχρι τώρα και για τα οποία συζητάμε να κινούνται εκτός του πεδίου GPGPU και όχι ιδιαίτερα στο τρισδιάστατο (άντε εξαίρεση τα physics τα οποία θα δουν και τρομακτική άνοδο με το Fermi). APIs όπως το OpenCL έχουν σαν στόχο να εξισορροπήσουν τους πόρους ενός συστήματος μεταξύ CPU/GPU και αντί να κάθεται να σκυλοβαριέται στην εκάστοτε μη τρισδιάστατη εφαρμογή μια κάρτα γραφικών να συμμετέχει ΟΠΟΥ αυτό έχει νόημα σαν κάρτα γραφικών και όχι οτιδήποτε άλλο. Πάρε παράδειγμα το Photoshop. Μετά την έκδοση CS4 με κάθε GPU με SM3.0 και άνω (και όσο περισσότερη μνήμη τόσο καλύτερα) η κάρτα γραφικών παίρνει τα βάρη από την CPU σε εκείνα ακριβώς τα σημεία που χάνεται η δύναμη μιας CPU. ΄Οπως τοχω υπεραπλουστεύσει θέλεις μια δουλειά πάρε CPU, θέλεις εκατοντάδες αν όχι χιλιάδες δουλειές παράλληλα μια GPU. Για αυτά ακριβώς τα σημεία έρχεται να αλλάξει το GPGPU & API όπως το OpenCL τα δεδομένα και ο οποιοσδήπτε γράφει μια εφαρμογή που έχει πέντε σημεία με υψηλό παραλληλισμό να ξυπνάει την GPU και όπου χρειάζονται μια ή δύο εργασίες την CPU. Mέχρι του σημείου όμως να αρχίσουν οι δημιουργοί των εφαρμογών να σκέφονται με αυτόν τον τρόπο ο δρόμος είναι μακρύς και μόλις είμαστε στα ξεκινήματα. H NV λοιπόν το μόνο που κάνει είναι να έχει πηδήξει στο τραίνο του GPGPU πρώτη και δυναμικότατα και όποιος ήθελε ακολουθήσει αργότερα. Μέχρι να προλάβει το τραίνο η Intel θα έχει διανύσει διαδρομή η NVIDIA και ο χρόνος δουλεύει αυτή τη στιγμή υπέρ της. Kαι η Intel όσο ανεγκέφαλος και γραφειοκρατικός γίγαντας κι αν είναι έχει άπειρους διαθέσιμους πόρους, άπειρα ταλαντούχα κεφάλια και την μεγαλύτερη marketing μηχανή που μπορεί να φανταστεί κανείς. ΄Οποιος προλάβει τον Κύριο είδε είναι εδώ.... απλα να μη γινει επαναληψη της ιστοριας μεταξυ του xbox 360 και του ps3 οπου μεν ο cell ριχνει τα αυτια στον cpu της ibm δε ομως στο xbox 360 παιζουν καλυτερα γιατι απλα οι developers δεν αξιοποιουν ολο αυτο το raw power....προβλεπω να γινεται η nvidia κατι σαν το iphone....special κατηγορια στις καρτες γραφικων που θα παιζει μονη της....βεβαια αν πιασει τοτε ισως την ακολουθησει και η ΑΤΙ με το fusion που δεν προβλεπεται μεχρι το 2012 να εμφανιστει....H μαγεία και το μεγάλο προτέρημα του Xbox360 γενικά σαν κονσόλας είναι ότι είναι τρομερά ευκολότερο να γράψει ο δημιουργός για αυτήν κωδικό. Είναι τρομακτικό προτέρημα και παρόλα τα προτερήματα που μπορεί να έχει ένας Cell αν χρειάζεται ο δημιουργός να φτάσει σε αυτό που θέλει να πάει μέσω Κωλοπετινίτσας μοιραία δεν μπορεί να ασχοληθεί όσο θα ήθελε κανείς γιατί και αυτόν τον πιέζουν από πάνω για τον χρόνο και όχι δεν μπορεί να λαλακίζεται άπειρες ώρες, μήνες, χρόνια για ένα παιχνίδι. Για το ευκολότερο εκ των δύο θα δουλέψουν οι περισσότεροι....
vasi Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Αν η SONY ηθελε να αξιοποιησει σωστα το ps3 ας εβαζε την ati αντι την nvidia στα γραφικα της !!!!!!!
grimpr Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Επέστρεψα για να σας χαλάσω την μανέστρα. Η Nvidia περπατάει σε "λεπτό μονοπάτι" με την στρατηγική της. Δεν μπορείς να έχεις και την πίτα ολόκληρη (Computing) και τον σκύλο χορτάτο (Games) εύκολα, αν τα κατάφεραν με την Fermi, αξίζουν συγχαρητήρια στην ομάδα μηχανικών της Nvidia. Στο γενικό, είναι ένα πραγματικά θεαματικό προϊόν. Προσωπικά προβλέπω χαστούκι στην Nvidia στο θέμα Computing από την πολύ ποιο φθηνή, μπορεί και 200 ευρώ διαφορά, Larrabee της Intel.
Ailuros Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 Αν η SONY ηθελε να αξιοποιησει σωστα το ps3 ας εβαζε την ati αντι την nvidia στα γραφικα της !!!!!!! To μεγαλύτερο πρόβλημα του PS3 είναι ο Cell. Προσωπικά προβλέπω χαστούκι στην Nvidia στο θέμα Computing από την πολύ ποιο φθηνή, μπορεί και 200 ευρώ διαφορά, Larrabee της Intel. Ούτε τόσο δεν θα αξίζει όταν με το καλό κάποτε εμφανιστεί. Η 5850 θα κάνει τότε τα μισά με ισάξιες επιδόσεις.
vassilis_pap Δημοσ. 1 Οκτωβρίου 2009 Δημοσ. 1 Οκτωβρίου 2009 To μεγαλύτερο πρόβλημα του PS3 είναι ο Cell. Τα ίδια είχα διαβάσει και εγώ για το Cell ... Έχεις κανένα link που να εξηγεί του λόγους που ο Cell είναι ανεπαρκής ως CPU; Επίσης ισχύει ότι ένα ακόμα πρόβλημα στην αρχιτεκτονική του PS3 είναι το περιορισμένο memory bandwidth κυρίως του RSX; Κανένα νέο για το από που θα ψωνήσουν GPU οι κονσολάδες για την επόμενη γενιά υπάρχει; Thanks...
Psycho_Warhead Δημοσ. 2 Οκτωβρίου 2009 Δημοσ. 2 Οκτωβρίου 2009 Γενικο προβλημα στις τωρινες κονσολες ειναι η λιγη μνημη που εχουν.....
FarCry Δημοσ. 2 Οκτωβρίου 2009 Δημοσ. 2 Οκτωβρίου 2009 Βασικός λόγος είναι το κόστος κατασκευής (υπάρχουν και μερικά χωροταξικά θέματα επίσης). 384 δεν είναι καθόλου κακό, ειδικά αν σκεφτείς και το γεγονός πως έχεις GDDR5... ασε βρηκα την απαντηση Fermi uses GDDR5 for its main memory system, the first high-end NVIDIA GPU to adopt this technology. GDDR5 delivers higher bandwidth per pin than the more mature GDDR3 used in earlier NVIDIA designs, and this allows Fermi to use a narrower 384-bit memory interface instead of the wider 512-bit interface used in the GT200. Narrower buses use less power, and require fewer pins, simplifying PCB board layout. NVIDIA hasn’t released the specs of the memory it will use with Fermi, but Insight 64 estimates it will go for the 2GHz parts; this would give Fermi a local memory bandwidth of 192GB/second, about a third more than it achieved with GDDR3 in the GT200. GDDR5 DRAMs transfer data over the memory bus at higher rates than GDDR3 chips, but use a new Error Detecting Code (EDC) to protect data integrity in transit. If the memory controller detects transmission errors on the memory bus, it simply retransmits the data. Technology like this has been a standard part of system buses for years, but now it’s built into each DRAM chip.
Ailuros Δημοσ. 2 Οκτωβρίου 2009 Δημοσ. 2 Οκτωβρίου 2009 Τα ίδια είχα διαβάσει και εγώ για το Cell ... Έχεις κανένα link που να εξηγεί του λόγους που ο Cell είναι ανεπαρκής ως CPU; Επίσης ισχύει ότι ένα ακόμα πρόβλημα στην αρχιτεκτονική του PS3 είναι το περιορισμένο memory bandwidth κυρίως του RSX; Το Cell είναι μια χαρά σαν CPU. Το πρόβλημά της είναι ότι δυσκολεύει το να γράψεις κωδικό για αυτό. Links δεν έχω αυτή τη στιγμή αλλά αν ψάξεις λίγο κάτι θα βρεις. Το RSX δανείζεται όπου ζορίζεται εύρος από τον Cell. Κανένα νέο για το από που θα ψωνήσουν GPU οι κονσολάδες για την επόμενη γενιά υπάρχει; Thanks... AMD & NVIDIA. ---------- Το μήνυμα προστέθηκε στις 08:45 ---------- ασε βρηκα την απαντηση Κανείς δεν είναι σίγουρος ακόμα για τον χρονισμό της μνήμης. ΄Η στα ίδια επίπεδα με την ΑMD ή παραπάνω.
Προτεινόμενες αναρτήσεις
Αρχειοθετημένο
Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.