Προς το περιεχόμενο

Nvidia GT300 & ATI RV870


Thresh

Προτεινόμενες αναρτήσεις

  • Απαντ. 2,9k
  • Δημ.
  • Τελ. απάντηση
Δημοσ.

H νεα μαχη θα ειναι συγκλονιστικη! Θα εχουμε τρεις μονομαχους στην ΑΡΕΝΑ!!!

Απλα οι νεες τεχνολογιες που θα εφαρμοστουν θα ειναι περα απο καθε λογικη!

  • 3 εβδομάδες αργότερα...
Δημοσ.

Πολύ πάτο έχει φάει αυτή η ενότητα και είναι καιρός να ζωντανέψει λιγάκι, μιας και δεν απέχουν πια και τόσο πολύ όσο θα φανταζόταν κανείς. Κάπου μέσα στο καλοκαίρι θα έχουν λογικά τα tape out τους και ίσως να αρχίσουν να εμφανίζονται σιγά σιγά περισσότερες λεπτομέρειες.

 

Ας πάρουμε λίγο το GΤ3x0. Aν πίστευα ότι λέγεται από πλευράς NV θα έλεγα ότι πρόκειται για αρχιτεκτονική που ξεκίνησε από tabula rasa. Προσωπικά το θεωρώ απίθανο να μην χρησιμοποιήθηκαν στοιχεία από το G8x, χωρίς αυτό να σημαίνει ότι δεν θα έχει σχετικά επαναστατικά στοιχεία σε σχέση με τους προκατόχους του.

 

Αν οι 'off the record' πληροφορίες αληθεύουν τότε μιλάμε για μια αρχιτεκτονική όπου τα εκάστοτε clusters θα είναι πιο κοντά στην έννοια multi-core ως τώρα. Με άλλα λόγια θα έχει μια σοβαρή προσπάθεια να αποκεντρωθούν βασικές λειτουργίες του πυρήνα όπως π.χ. το triangle setup, rasterizing κλπ. και να μπορεί η κάθε μονάδα (ή πυρήνας αν θέλετε) να ζητάει σχετικά δεδομένα ανεξάρτητα από τις άλλες ανά πάσα στιγμή. Τα δεδομένα αυτά λογικά θα είναι στην διάθεση των πυρήνων και θα εισρέουν υπεραπλουστευμένα με αντιγραφή/επικόλληση.

 

Με αυτό τον τρόπο όχι μόνο βελτιστοποιείται το scaling μεταξύ των μονάδων αλλά ανεβαίνει και αρκετά η όλη επάρκεια της GPU ειδικά όταν έχεις να κάνεις με D3D11 multithreading. ΄Ολο αυτό θα έρθει με πολύ πιο προχωρημένες διαβαθμίσεις χρονισμών ανάμεσα στις μονάδες και διαχείριση αυτών από ότι το βλέπουμε στο σημερινό Nehalem.

 

Κοντός ψαλμός αλληλούια: αντιμετωπίστε στο άμεσο μέλλον οποιεσδήποτε "φήμες" ή καλοθελητές ξερόλες που θα σας μιλήσουν για τρελλό αριθμό μονάδων Χ με μέγιστο σκεπτικισμό. Αν δεν μπει στον κόπο κάποιος να υπολογίσει τις δυνατότητες της κάθε μονάδας δεν έχει κανένα νόημα να το πάρετε στα σοβαρά.

 

Υπενθυμίζω ότι αν μέτραγε κάποιος ένα G80 με παρεμφερή παραμέτρους όπως το G7x θα νόμιζε ότι η απόσταση των δύο αυτών θα ήταν σχετικά μικρή. Σε αντίθεση η διαφορά σε επάρκεια/επιδόσεις ξεπερνάει την ~2.5x αύξηση του αριθμού transistors στο G80.

 

Stay tuned ;)

Δημοσ.
Πολύ πάτο έχει φάει αυτή η ενότητα και είναι καιρός να ζωντανέψει λιγάκι, μιας και δεν απέχουν πια και τόσο πολύ όσο θα φανταζόταν κανείς. Κάπου μέσα στο καλοκαίρι θα έχουν λογικά τα tape out τους και ίσως να αρχίσουν να εμφανίζονται σιγά σιγά περισσότερες λεπτομέρειες.

 

Προσωπικά αν και ασχολούμαι με κάρτες γραφικών, προσπαθώντας να καταλάβω τους τρόπους λειτουργίας των 2 εταιριών όσο ποιο μπροστά πάω να δω για νέα μοντέλα τόσο χαώδες καταχτάει το αντικείμενο. Έκτος το ότι δεν ξέρω καλά τις βασικές αρχές διότι μπερδεύομαι με τους τρόπους λειτουργιάς που πασάρουν οι δυο εταιρίες για λόγους marketing αλλά και ότι δεν υπάρχει ελεύθερος χρόνος για απασχόληση του αντικείμενου.B):eek:

 

 

 

Ας πάρουμε λίγο το GΤ3x0. Aν πίστευα ότι λέγεται από πλευράς NV θα έλεγα ότι πρόκειται για αρχιτεκτονική που ξεκίνησε από tabula rasa. Προσωπικά το θεωρώ απίθανο να μην χρησιμοποιήθηκαν στοιχεία από το G8x, χωρίς αυτό να σημαίνει ότι δεν θα έχει σχετικά επαναστατικά στοιχεία σε σχέση με τους προκατόχους του.

 

Δεν πιστεύω ότι η nvidia έχει την πολυτέλεια του χρόνου να ασχοληθεί για κατασκευή νέας gpu απ το μηδέν. Έκτος και αν τα προηγούμενα μοντέλα ήταν τεστ για την εταιρία για να πιάσει τις ατέλειες των παρόντων gpus ( και από μεριάς ΑΤΙ ) που δεν το πιστευτώ με τίποτα. Έξαλλου τον τελευταίο χρόνο δέχεται μεγάλη πίεση απ την

ΑΤΙ σε άλλους τους τομής και κύριος στον οικονομικό τιμή/απόδοση. :rolleyes:

 

 

Αν οι 'off the record' πληροφορίες αληθεύουν τότε μιλάμε για μια αρχιτεκτονική όπου τα εκάστοτε clusters θα είναι πιο κοντά στην έννοια multi-core ως τώρα. Με άλλα λόγια θα έχει μια σοβαρή προσπάθεια να αποκεντρωθούν βασικές λειτουργίες του πυρήνα όπως π.χ. το triangle setup, rasterizing κλπ. και να μπορεί η κάθε μονάδα (ή πυρήνας αν θέλετε) να ζητάει σχετικά δεδομένα ανεξάρτητα από τις άλλες ανά πάσα στιγμή. Τα δεδομένα αυτά λογικά θα είναι στην διάθεση των πυρήνων και θα εισρέουν υπεραπλουστευμένα με αντιγραφή/επικόλληση.

 

Με αυτό τον τρόπο όχι μόνο βελτιστοποιείται το scaling μεταξύ των μονάδων αλλά ανεβαίνει και αρκετά η όλη επάρκεια της GPU ειδικά όταν έχεις να κάνεις με D3D11 multithreading. ΄Ολο αυτό θα έρθει με πολύ πιο προχωρημένες διαβαθμίσεις χρονισμών ανάμεσα στις μονάδες και διαχείριση αυτών από ότι το βλέπουμε στο σημερινό Nehalem.

 

εντάξι ολα αυτα αλλα για να δουλεψουν αρμονικά πρέπει να υπάρχει και αντίστιχη cpu.

εδω οι παρούσες κάρες οταν έγιναν test σε συστιμα με nehalem πίραν τα πάνω τους!!:shifty:

 

Κοντός ψαλμός αλληλούια: αντιμετωπίστε στο άμεσο μέλλον οποιεσδήποτε "φήμες" ή καλοθελητές ξερόλες που θα σας μιλήσουν για τρελλό αριθμό μονάδων Χ με μέγιστο σκεπτικισμό. Αν δεν μπει στον κόπο κάποιος να υπολογίσει τις δυνατότητες της κάθε μονάδας δεν έχει κανένα νόημα να το πάρετε στα σοβαρά.

 

για πες τι περιμενουμε ( στο περίπου) :-)

 

Υπενθυμίζω ότι αν μέτραγε κάποιος ένα G80 με παρεμφερή παραμέτρους όπως το G7x θα νόμιζε ότι η απόσταση των δύο αυτών θα ήταν σχετικά μικρή. Σε αντίθεση η διαφορά σε επάρκεια/επιδόσεις ξεπερνάει την ~2.5x αύξηση του αριθμού transistors στο G80.

 

Δίστιχος τα μετράμε όλα σε fps μιας και το αποτέλεσμα έχει σημασία ( λάθος! Κάποιοι ξενύχτισαν για αυτά!! ) :mad:

 

Stay tuned ;)

Δημοσ.

Γιατί δεν συγκινούμαι?

περιμένω εδώ και χρονια να βγάλουν κάρτες και games με raytracing! μάλλον όμως θα περιμένω αλλα τόσα χρονια ακόμα. ίσως το PS4 το καταφέρει αυτό...

είδωμεν

Δημοσ.
ίσως το PS4 το καταφέρει αυτό...

είδωμεν

 

ακομα και η sony φιλε μου την ΑΤΙ και nvidia περιμενει.....

ps3- nvida gpu

xbox 360 -ATI gpu.

 

ακομα και την τεχνολογια να κατεχει ( που την κατεχει πιστευω ) υπαρχουν συμβολεα περι πνευματικων δικαιοματων για βασικες αρχες κατασκευης gpu...οποτε αναμινατε στο ακουστικο σας.(για την sony και καθε sony )

Δημοσ.
ακομα και η sony φιλε μου την ΑΤΙ και nvidia περιμενει.....

ps3- nvida gpu

xbox 360 -ATI gpu.

 

ακομα και την τεχνολογια να κατεχει ( που την κατεχει πιστευω ) υπαρχουν συμβολεα περι πνευματικων δικαιοματων για βασικες αρχες κατασκευης gpu...οποτε αναμινατε στο ακουστικο σας.(για την sony και καθε sony )

 

και ps4 larabee

xbox(720?) Ατι πάλι

 

offtopic off/

Δημοσ.
και ps4 larabee

xbox(720?) Ατι πάλι

 

offtopic off/

 

http://www.insomnia.gr/forum/showpost.php?p=2554242&postcount=42

***αυτόματη ένωση μηνυμάτων***

Προσωπικά αν και ασχολούμαι με κάρτες γραφικών, προσπαθώντας να καταλάβω τους τρόπους λειτουργίας των 2 εταιριών όσο ποιο μπροστά πάω να δω για νέα μοντέλα τόσο χαώδες καταχτάει το αντικείμενο. Έκτος το ότι δεν ξέρω καλά τις βασικές αρχές διότι μπερδεύομαι με τους τρόπους λειτουργιάς που πασάρουν οι δυο εταιρίες για λόγους marketing αλλά και ότι δεν υπάρχει ελεύθερος χρόνος για απασχόληση του αντικείμενου.B):eek:

 

Δεν φταίνε οι IHV για αυτό, αλλά η έλλειψη θέλησης από πλευράς σου να παρακαλουθήσεις τις εξελίξεις.

 

Δεν πιστεύω ότι η nvidia έχει την πολυτέλεια του χρόνου να ασχοληθεί για κατασκευή νέας gpu απ το μηδέν. Έκτος και αν τα προηγούμενα μοντέλα ήταν τεστ για την εταιρία για να πιάσει τις ατέλειες των παρόντων gpus ( και από μεριάς ΑΤΙ ) που δεν το πιστευτώ με τίποτα. Έξαλλου τον τελευταίο χρόνο δέχεται μεγάλη πίεση απ την

 

΄Ημουνα σαφής και έγραψα ότι δεν πιστεύω προσωπικά σε μια tabula rasa. Aυτό ωστόσο δεν αποκλείει σημαντικές αλλαγές σε μια αρχιτεκτονική που βρίσκεται ήδη 4 χρόνια σε development. Ποιές ατέλειες ακριβώς έχει το GT200 σαν chip;

 

ΑΤΙ σε άλλους τους τομής και κύριος στον οικονομικό τιμή/απόδοση. :rolleyes:

 

Το πρόβλημα της GT200 έναντι της RV770 είναι ότι σε σχέση με το δεύτερο έχει λιγότερες επιδόσεις ανά mm2. Αυτό δεν σημαίνει όμως ότι έχει κάποια σοβαρή ατέλεια το GT200 σαν GPU. Επενδύσανε πάρα πολύ σε δυνατότητες GPGPU για να κάνουν μια αρχή για να έχουν να αντιμετωπίσουν το επερχόμενο Intel Larabee και η επένδυση εδώ σε mm2/transistors φυσικά δεν φαίνεται σε παιχνίδια αλλά μόνο σε επαγγελματικές εφαρμογές.

 

εντάξι ολα αυτα αλλα για να δουλεψουν αρμονικά πρέπει να υπάρχει και αντίστιχη cpu.

εδω οι παρούσες κάρες οταν έγιναν test σε συστιμα με nehalem πίραν τα πάνω τους!!:shifty:

 

Τι λες μωρέ; Τι σχέση έχει η επάρκεια μιας GPU σαν ανεξάρτητη μονάδα (για αυτήν μιλάω αποκλειστικά) με το τι κάνει ο κάθε επεξεργαστής;

 

για πες τι περιμενουμε ( στο περίπου) :-)

 

Κάτι νότια από 3 εκατομύρια κουρκουμπίνια.

 

Δίστιχος τα μετράμε όλα σε fps μιας και το αποτέλεσμα έχει σημασία ( λάθος! Κάποιοι ξενύχτισαν για αυτά!! ) :mad:

 

΄Οπως προείπα η G80 είναι μέχρι και πάνω από 3 φορές γρηγορότερη από μια G71 σε πραγματικό χρόνο.

***αυτόματη ένωση μηνυμάτων***

ακομα και η sony φιλε μου την ΑΤΙ και nvidia περιμενει.....

ps3- nvida gpu

xbox 360 -ATI gpu.

 

Επειδή βιάζεσαι και συ σαν τον κάθε Charlie για αρχή θα σου έλεγα ότι έχει σιγουρευτεί η νέα γενιά handheld consoles. Εδώ έχεις την εξής εικόνα:

 

NINTENDO = ΝVIDIA Tegra

SONY = IMAGINATION TECHNOLOGIES - PowerVR SGX-XT

 

Για τις μεγάλες κονσόλες θα έχουμε λεπτομέρειες όταν πέσουν οι τελικές υπογραφές.

 

ακομα και την τεχνολογια να κατεχει ( που την κατεχει πιστευω ) υπαρχουν συμβολεα περι πνευματικων δικαιοματων για βασικες αρχες κατασκευης gpu...οποτε αναμινατε στο ακουστικο σας.(για την sony και καθε sony )

 

Mπούρδες. H Intel όντως διαπραγματεύτηκε με διάφορους κατασκευαστές αλλά βγήκε εκτός κούρσας γιατί για τις επιδόσεις που θέλουν οι κατασκευαστές αυτοί η κατανάλωση ενέργειας είναι γιγαντιαία. ΄Αλλο να πεις ότι μια μελλοντική κονσόλα θα έχει μια αύξηση κατανάλωσης 2 φορές μεγαλύτερη από τις σημερινές και άλλο να φτάνει στο σημείο σχεδόν να δεκαπλασιάζεται. Περίπου 200W καταναλώνει συνολικά το XBox360 σαν συσκευή.

 

Πέραν τούτου άλλο βασικό πρόβλημα είναι ότι οι κατασκευαστές δεν θέλουν να αγοράσουν τελειωμένα chip όπως θέλει να τα πουλήσει η Intel, αλλά μονάχα άδειες χρήσης τεχνολογίας (IP = intelectual property). Εδώ η Sony/M$ και λοιποί δίνουν για κατασκευή οι ίδιοι το εκάστοτε IP, πληρώνουν ένα εφάπαξ ποσό για την αρχική άδεια του IP και μετά royalties per chip sold δηλαδή για κάθε κονσόλα που θα πουληθεί ένα μικρό ποσό για το κάθε GPU IP. Για τις κονσόλες PS3/XBox360 οι Sony/Μicrosoft πληρώνουν γύρω στα $5,00 ανά μονάδα σε NVIDIA/AMD αντίστοιχα.

 

Είναι βασικό για τους κατασκευαστές γιατί έτσι εξασφαλίζουν το απόλυτο έλεγχο της τιμής της κάθε μονάδας γραφικών και δεν εξαρτώνται από τα βίτσια του εκάστοτε κατασκευαστή.

Δημοσ.
Κάτι νότια από 3 εκατομύρια κουρκουμπίνια.

 

Πολλά δεν είναι? ακόμα και για τα 40nm? Aν και δεν ξέρω πολλά, υπολογίζω ότι παλι θα είναι ένα γιγαντιο chip σε μέγεθος gt200, αντε gt200b. Παλι χαλια yields θα έχουν και υψηλές τιμές. Αν η ati καταφέρει και βγάλει πάλι ανταγωνιστικο προιον σε πολύ μικρότερο μέγεθος, δεν θα ναι και τόσο καλά τα πράγματα για την nvidia (έχει βέβαια χρήμα αλλα...), ειδικά στους καιρους που διανύουμε. Δεν μπορω να καταλάβω γιατι δεν ακολουθει το παραδειγμα της ati.

Δημοσ.
Πολλά δεν είναι? ακόμα και για τα 40nm? Aν και δεν ξέρω πολλά, υπολογίζω ότι παλι θα είναι ένα γιγαντιο chip σε μέγεθος gt200, αντε gt200b.

 

Tόσο θα'ναι. Δικαιολογημένος ο σκεπτικισμός σου και λίγοι από εμάς δεν θα τον έχουν για να είμαστε ειλικρινείς. ΄Ομως μην ξεχνάς ότι οι αντιστοιχία επιδόσεις ανά τετραγωνικό χιλιοστό είναι τόσο τραγικές στο GT200 γιατί απλά πήραν μια G80 και κοτσάρανε χωριστές μονάδες για double precision. Υπεραπλουστευμένα ότι transistors ξόδεψαν για GPGPU στην GT200 είναι εκτός του λογαριασμού της συνηθισμένης αύξησης επιδόσεων σε παιχνίδια.

 

Θεωρητικά αλλάζει η ιστορία ωστόσο κατά πολύ όταν οποιεσδήποτε δυνατότητες GPGPU έρχονται μέσα από τις υπάρχουσες γενικές μονάδας μιας GPU και όχι από πρόσθετες ανεξάρτητες μονάδες. Παρεπιπτόντως ψάξε λίγο για τις ακριβής δυνατότητες των μονάδων DP στο GT200 και θα φανεί όχι μόνο η μεγάλη διαφορά στις δυνατότητες έναντι του RV770 αλλά και το κόστος σε hardware.

 

Παλι χαλια yields θα έχουν και υψηλές τιμές. Αν η ati καταφέρει και βγάλει πάλι ανταγωνιστικο προιον σε πολύ μικρότερο μέγεθος, δεν θα ναι και τόσο καλά τα πράγματα για την nvidia (έχει βέβαια χρήμα αλλα...), ειδικά στους καιρους που διανύουμε. Δεν μπορω να καταλάβω γιατι δεν ακολουθει το παραδειγμα της ati.

 

Δεν θεωρώ ότι μια μελλοντική GPU θα έχει σπουδαίο μέλλον αν δεν έχει σημαντικές GPGPU δυνατότητες. Περιμένει το Larabee στην γωνία και είμαι σχεδόν σίγουρος ότι θα είναι τουλάχιστον στις επαγγελματικές εφαρμογές αν όχι η καλύτερη απ' τις καλύτερες λύσεις. H NVIDIA έχει σχεδόν μονοπώλιο στις επαγγελματικές αγορές και το Q3 2008 έφτασε ρεκόρ ποσοστού αγοράς που χτύπησε το 90%. Με την εμφάνιση του RV770 το ποσοστό αυτό σαφώς και θα πρέπει να μετριάστηκε, αλλά δεν σηματοδοτεί και καμιά επικράτηση της AMD στην αγορά αυτήν.

 

Ο πρώτος ουσιαστικός αντίπαλος σε αυτή την αγορά θα είναι η Intel και είναι λογικό η NV να την φοβάται σαν το διάολο το λιβάνι. Οι IHV δεν βγάζουν χωριστό hardware για τις επαγγελματικές αγορές μόνο οι ονομασίες, οι οδηγοί και οι ποσότητες/χρονισμοί των μνημών αλλάζουν. Με τις τιμές που χρεώνει η NV για κάθε Quadro ή Tesla cluster και με τέτοιο ποσοστό κυριαρχίας στην αγορά θα νόμιζα ότι θα ήταν εύκολη η απάντηση εδώ. Τα οποιαδήποτε σπασμένα βγαίνουν και με το παραπάνω από εκεί.

 

Αμφιβάλλω αν η AMD θα στοχεύσει ποτέ στις high end επαγγλεματικές αγορές. Μακάρι να καταφέρει να συντηρήσει τα υπάρχοντα ποσοστά της υπό το βάρος της εμφάνισης του Larabee στο μέλλον. Επιπρόσθετα έχω σοβαρές αμφιβολίες ότι με την D3D11 γενιά η AMD θα διατηρήσει στο ίδιο επίπεδο το τεράστιο προτέρημα σε performance/mm2 έναντι του ανταγωνισμού. Πρώτον θα είναι αμφότερες στο ίδιο πρωτόκολλο κατασκευής (και όχι 65 έναντι 55nm) και δεύτερον η πολύ υψηλή εσωτερική ακρίβεια για double precision στοιχίζει όπως και οτιδήποτε άλλο GPGPU. Mπορεί φυσικά να κρατήσεις τις δυνατότητες στο ελάχιστο όπως σήμερα και να επικεντρωθεί μόνο στις επιδόσεις με περιορισμένες δυνατότητες, αλλά πες μου μετά πόσες πιθανότητες έχει το Larabee με συγκρίσιμες τιμές να την κάνει κατά πολύ λιγότερο δελεαστική.

Δημοσ.

Μια είδηση/φήμη του expreview που αναπαράγουν σήμερα και άλλοι…

http://en.expreview.com/2009/02/23/vote-rv790-is-nothing-more-than-super-super-overclocked-rv770.html

 

Το rv790 είναι απλά ένα overclocked rv770 στα 55nm (not 40nm) με τον ίδιο αριθμό SPs στα 950MHz (ένατη 750 της hd4870).

 

Σε παλαιότερο άρθρο είχε αναφερθεί ότι η ati έλυσε κάποιο power-bug το οποίο επέτρεψε το clock up αυτό.

Δημοσ.
Μια είδηση/φήμη του expreview που αναπαράγουν σήμερα και άλλοι…

http://en.expreview.com/2009/02/23/vote-rv790-is-nothing-more-than-super-super-overclocked-rv770.html

 

Το rv790 είναι απλά ένα overclocked rv770 στα 55nm (not 40nm) με τον ίδιο αριθμό SPs στα 950MHz (ένατη 750 της hd4870).

 

Σε παλαιότερο άρθρο είχε αναφερθεί ότι η ati έλυσε κάποιο power-bug το οποίο επέτρεψε το clock up αυτό.

 

Άργησες λίγο αδερφέ: http://www.insomnia.gr/forum/showthread.php?t=302835

 

Υπάρχει και μια άλλη σχετική ενότητα. ΄Ενα πουλάκι τιτίβισε και άφησα να διαρρεύσει η λεπτομέρεια στο δίκτυο για τα 55. Για τα υπόλοιπα είδωμεν αλλά μην περιμένεις μεγαλύτερο άνοδο από περίπου 30% γενικά σε σχέση με την 4870.

Δημοσ.

offtopic

 

Rv740 (4750) Review - preview

 

 

Oπως την περιμέναμε ανάμεσα σε 4830 και 4850. Λογικά αυτή θα είναι η 4750 και θα κυκλοφορήσει και η 4770 με core clock 750Μhz. Aυτες οι δύο κάρτες θα αντικαταστήσουν σταδιακά τις 4830 και 4850. Προσωπικά περίμενα να μην χρειαζονται εξωτερική τροφοδοσία αλλά τεσπα. Επισης δεν νομίζω να είναι αυτό το στανταρ κουλεράκι αλλα κάποιο αντίστοιχο single slot που έχει η 4850.

Αρχειοθετημένο

Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...