Προς το περιεχόμενο

nVidia GT200 : GeForce 9900 GTX & 9900 GT In Q3


MixalisX

Προτεινόμενες αναρτήσεις

  • Απαντ. 902
  • Δημ.
  • Τελ. απάντηση
Δημοσ.
Η συζήτηση παραέχει γίνει εκτός θέματος μου φαίνετε... Κάποιοι έχουν μπερδέψει τις κάρτες γραφικών με τις ρόδες:P

 

Δε νομίζω :rolleyes: :shifty:

με τις ροδες ξεφευγεις απο ολα :

Απόλυτη αίσθηση ελευθέριας/Απόδραση απ την καθημερινότια

με τις καρτες γραφεικων : Φτιάχνεις τον δικό σου κόσμο όπως εσύ τον θες κ ζεις εκεί

 

Όπως βλέπεις δεν απέχουν κ πολύ αυτά τα δυο ;)

Δημοσ.

Φίλε μου μην τα συγκρίνεις. Το δικό σου μέτρο σύγκρισης δεν νομίζω ότι συμπίπτει με τους περισσότερους συμπεριλαμβανομένου και εμένα οι οποίοι μπένουμε να διαβάσουμε κάποια νέα σχετικά με τις κάρτες γραφικών και διαβάζουμε... μη πω και γω τι. Άνοιξε ένα topic στην ανάλογη κατηγορία και πες μας ότι θες για την μηχανή σου. Θα ήθελες εσύ να ανοίξεις ένα topic σχετικά με κάτι που θέλεις να ρωτήσεις ή να μάθεις για το pc σου και εγώ να σου απαντάω για το κολοφτιαγμένο μου αμάξι? Να ξέρουμε λιγάκι τι λέμε.

Δημοσ.
Φίλε μου μην τα συγκρίνεις. Το δικό σου μέτρο σύγκρισης δεν νομίζω ότι συμπίπτει με τους περισσότερους συμπεριλαμβανομένου και εμένα οι οποίοι μπένουμε να διαβάσουμε κάποια νέα σχετικά με τις κάρτες γραφικών και διαβάζουμε... μη πω και γω τι. Άνοιξε ένα topic στην ανάλογη κατηγορία και πες μας ότι θες για την μηχανή σου. Θα ήθελες εσύ να ανοίξεις ένα topic σχετικά με κάτι που θέλεις να ρωτήσεις ή να μάθεις για το pc σου και εγώ να σου απαντάω για το κολοφτιαγμένο μου αμάξι? Να ξέρουμε λιγάκι τι λέμε.

 

Με σινχωρεις johnnyelectro :X

εχεις δίκιο ότι κ να πεις !:shifty:

αλλα το θεμα ειναι of topic εδω κ αρκετα ποσταρισματα....:rolleyes:

αν παλι φτεω εδω κ γω 1000 sorry!!!!

Δημοσ.
Μπορούμε να προσγειωθούμε λίγο;

 

nVidia GT200 το Q3 2008

 

Σύμφωνα με το fudzilla, η nVidia πρόκειται να βγάλει πρός διάθεση τις νέες κάρτες γραφικών της , της σειράς GT200 περίπου το τρίτο τρίμηνο του 2008(και λίγο αργότερα) !

Σύμφωνα πάλι με τα λεγόμενα του FUD, η κωδική ονομασία της σειράς μπορεί να είναι D10E (Desktop 10th generation Enthusiast) και πολύ πιθανόν όλες οι κάρτες να ανήκουν στην σειρά GeForce 10, ενώ θα είναι κατασκευασμένες με λιθογραφική μέθοδο 56nm

 

περισωτερα εδω : http://www.fudzilla.com/index.php?option=com_content&task=view&id=6245&Itemid=1

 

αλλα παλυ....

 

gt200 = 65nm/600mm² Die-Size ~1,5 Mrd. Transistoren :rolleyes: ??

Δημοσ.
Με σινχωρεις johnnyelectro :X

εχεις δίκιο ότι κ να πεις !:shifty:

αλλα το θεμα ειναι of topic εδω κ αρκετα ποσταρισματα....:rolleyes:

αν παλι φτεω εδω κ γω 1000 sorry!!!!

 

Το σχόλιο μου δεν ήταν μόνο για τα δικά σου post, γενικά το έλεγα! Δεν υπάρχει πρόβλημα, άλλωστε και μένα μου αρέσουν οι μηχανές:-). Απλά μπήκα να δω νέα για κάρτες γραφικών και άλλα είδα. Όλα οκ.

Για να επανέλθουμε κανένα νεότερο???:lol:

Δημοσ.
Το σχόλιο μου δεν ήταν μόνο για τα δικά σου post, γενικά το έλεγα! Δεν υπάρχει πρόβλημα, άλλωστε και μένα μου αρέσουν οι μηχανές:-). Απλά μπήκα να δω νέα για κάρτες γραφικών και άλλα είδα. Όλα οκ.

Για να επανέλθουμε κανένα νεότερο???:lol:

 

οκ

δες την απορια μου στο πρωιγουμενο post

Δημοσ.

Άποψη μου είναι ότι καλά έκανε και ξεσπάθωσε ο Jen-Hsun Huang. Διάφορα σχόλια και εδώ:

http://www.theinquirer.net/gb/inquirer/news/2008/04/11/nvidia-chief-gets-graphic-intel

http://www.cnet.com/8301-13924_1-9916414-64.html?tag=cnetfd.mt

http://www.tgdaily.com/content/view/36889/118/

 

Γενικά η Intel μας τα έχει κάνει τούμπανο τελευταία με το cpu ray trace. Το κακό είναι ότι λέει (συνήθως) τη μισή αλήθεια. Άλλο το να παίζει το ray-traced και άλλο το να έχει την περιπλοκότητα των εφέ που έχουν παιχνίδια σαν το crisis. Φοβάμαι ότι εάν αρχίσουμε και έχουμε απαιτήσεις από το ray traced αποτέλεσμα τότε είμαστε τουλάχιστον 3-4 γενιές μακριά. Μαθηματικοί συνεπεξεργαστές υπάρχουν στον κόσμο των servers τα τελευταία χρόνια (καλά καλά πάντα υπήρχαν, αλλά έχουμε και κάτι τέρατα αυτή τη στιγμή στην αγορά). Ακόμα και με πολλαπλάσιες επιδώσεις σε specfp/specfp-rate Από τους υπάρχοντες xeon & opeteron το real-time raytracing σε επίπεδο μοντέρνων παιχνιδιών είναι πολύ μα πολύ μακριά.

 

Αν θέλει η Intel μπορεί κάλλιστα να βγάλει από σήμερα δικές τις optimized OpenGL βιβλιοθήκες… ας φτιάξει και κανα 3dstudio driver…

 

Από την άλλη εάν αληθεύει ότι το DX11 θα έχει raytraced & cpu-bound paths, πραγματικά είμαι περίεργος να δω τι θα καταφέρουν να έχουν production έτοιμο στα επόμενα δυο τρία χρόνια η καλή μας wInTel πλατφόρμα. (κρατάω μικρό καλάθι)

 

Γεγονός πάντως πρέπει να είναι οι κάκιστες σχέσεις intel – nvidia. Ακούγονται φήμες εδώ και καιρό αλλά οι τελευταίες δηλώσεις είναι η μεγαλύτερη επιβεβαίωση.

 

Προσωπικά νομίζω ότι καλύτερο δρόμο έχουν χαράξει η ati και η nvidia σε σχέση με την Intel. Η Intel θέλει να φέρει κατευθείαν την επανάσταση… δύσκολο πράγμα αυτό.

Η ati έχει την τεχνογνωσία της Daaamit σε ζητήματα multichip scaling, και τεχνογνωσία σε συνεπεξεργαστές που κάθονται σε cpu socket. H amd σίγουρα μπορεί να παρουσιάσει singlechip cpu/chipset/gpu, αλλά ξέρει καλά ότι αυτό το chip θα είναι φθηνό και μικρών επιδόσεων προσανατολισμένο στην non-gaming αγορά. Προσωπικά περιμένω να δώ μικρούς ευέλικτους πυρήνες με NUMA και γρήγορο chip to chip/core to core bus.

H nvidia έχει καλή γνώση του ʽworkflowʼ ενός παιχνιδιού. Εδώ είναι που εφαρμόζει έξυπνες λύσεις βασισμένη στην πραγματικότητα και άρα επιταχύνοντας τα πραγματικά bottlenecks. Το μόνο κακό εδώ είναι η κακές σχέσεις με την Intel καθώς η nvidia πιθανά να χρειαστεί πολύ δουλειά στα επόμενα chipset της.

Δημοσ.
Προσωπικά περιμένω να δώ μικρούς ευέλικτους πυρήνες με NUMA και γρήγορο chip to chip/core to core bus.

 

NUMA ειναι στα τωρινα multi-gpu οπως ανεφερε ο αιλουρος πριν και επειδη υπαρχει προβλημα (512ΜΒ/καρε) θα το γυριζουν σε UMA στο μελλον :P

NUMA ειναι στην skulltrail platform

Δημοσ.
NUMA ειναι στα τωρινα multi-gpu οπως ανεφερε ο αιλουρος πριν και επειδη υπαρχει προβλημα (512ΜΒ/καρε) θα το γυριζουν σε UMA στο μελλον :P

NUMA ειναι στην skulltrail platform

 

 

Χμμμ… ναι μπορείς να το ορίσεις και ως numa αυτό που συμβαίνει αυτή τη στιγμή (αν και όχι ακριβός καθώς το ένα core δεν έχει πρόσβαση στην μνήμη του άλλου). Numa μεν πετσοκομμένο δε. Αλλά, αναφερόμουν σε πιο εξελιγμένο numa.

Multiple cores <-> gram <-> system ram

Λ.χ. Έστω δύο διπύρηνες κάρτες, ο ένας πυρήνας να έχει access στην gram της δεύτερης κάρτας.

Γενικά το any to any με metrics για numa.

 

Εδώ είναι που έρχεται και το πιο εξελιγμένο chip to chip & core to core communication.

 

Εδώ μετράει σταδιακά και το “bus”

 

Στο non uniform πρέπει να προβλέψουμε το matrix:

 

Possible access: core to local gram, core to remote gram, core to remote card gram, core to ram

Possible paths: on board via on chip controller, onboard via external controller, not on board via PCIe, not onboard via card interconnect

Metrics

 

Εάν δε βάλουμε και κάποιου τύπου caching/pefetching πάμε πιο μακριά.

 

Αυτά όλα δεν αναμένονται στην επόμενη γενιά nvidia/ati.

Αλλά στην μεθεπόμενη ίσως….

Δημοσ.

τι λετε ρε παιδια? οχι buffer overflow, αλλα core meltdown εχω παθει με αυτά που γραφετε μερικοί. Είπαμε forum για υπολογιστές είναι γενικά το insomnia όχι για σχεδιαστές επεξεργαστών.

 

Σορρυ κιόλας αλλά για το 90% των χρηστών εδω μέσα μιλάτε εντελώς κινεζικα.

 

Φιλικά παντα.

Δημοσ.
nVidia GT200 το Q3 2008

 

Σύμφωνα με το fudzilla, η nVidia πρόκειται να βγάλει πρός διάθεση τις νέες κάρτες γραφικών της , της σειράς GT200 περίπου το τρίτο τρίμηνο του 2008(και λίγο αργότερα) !

Σύμφωνα πάλι με τα λεγόμενα του FUD, η κωδική ονομασία της σειράς μπορεί να είναι D10E (Desktop 10th generation Enthusiast) και πολύ πιθανόν όλες οι κάρτες να ανήκουν στην σειρά GeForce 10, ενώ θα είναι κατασκευασμένες με λιθογραφική μέθοδο 56nm

 

περισωτερα εδω : http://www.fudzilla.com/index.php?option=com_content&task=view&id=6245&Itemid=1

 

αλλα παλυ....

 

gt200 = 65nm/600mm² Die-Size ~1,5 Mrd. Transistoren :rolleyes: ??

 

Πρώτον δεν υπάρχει πρωτόκολλο κατασκευής στα 56nm αλλά 55nm και δεύτερον το GT200 κατασκευάστηκε στα 65nm και μετράει κάτω από τα 600 τετραγωνικά χιλιοστά.

Δημοσ.
Άποψη μου είναι ότι καλά έκανε και ξεσπάθωσε ο Jen-Hsun Huang. Διάφορα σχόλια και εδώ:

http://www.theinquirer.net/gb/inquirer/news/2008/04/11/nvidia-chief-gets-graphic-intel

http://www.cnet.com/8301-13924_1-9916414-64.html?tag=cnetfd.mt

http://www.tgdaily.com/content/view/36889/118/

 

Γενικά η Intel μας τα έχει κάνει τούμπανο τελευταία με το cpu ray trace. Το κακό είναι ότι λέει (συνήθως) τη μισή αλήθεια. Άλλο το να παίζει το ray-traced και άλλο το να έχει την περιπλοκότητα των εφέ που έχουν παιχνίδια σαν το crisis. Φοβάμαι ότι εάν αρχίσουμε και έχουμε απαιτήσεις από το ray traced αποτέλεσμα τότε είμαστε τουλάχιστον 3-4 γενιές μακριά. Μαθηματικοί συνεπεξεργαστές υπάρχουν στον κόσμο των servers τα τελευταία χρόνια (καλά καλά πάντα υπήρχαν, αλλά έχουμε και κάτι τέρατα αυτή τη στιγμή στην αγορά). Ακόμα και με πολλαπλάσιες επιδώσεις σε specfp/specfp-rate Από τους υπάρχοντες xeon & opeteron το real-time raytracing σε επίπεδο μοντέρνων παιχνιδιών είναι πολύ μα πολύ μακριά.

 

Αν θέλει η Intel μπορεί κάλλιστα να βγάλει από σήμερα δικές τις optimized OpenGL βιβλιοθήκες… ας φτιάξει και κανα 3dstudio driver…

 

Ο David Kirk έχει το ελάττωμα να εκφράζεται περισσότερο σαν PR υπάλληλος παρά σαν engineer, αλλά φοβάμαι ότι έχει δίκιο όταν μιλάει για pie in the sky.

 

Ναι τα μεγάλα studios όπως η Pixar έχουν χρησιμοποιήσει ray tracing (όπως στο Cars) αλλά μόνο για μερικές αντανακλάσεις στα αυτοκίνητα. Η πλειοψηφία εξακολουθεί να είναι rasterized.

 

Από την άλλη εάν αληθεύει ότι το DX11 θα έχει raytraced & cpu-bound paths, πραγματικά είμαι περίεργος να δω τι θα καταφέρουν να έχουν production έτοιμο στα επόμενα δυο τρία χρόνια η καλή μας wInTel πλατφόρμα. (κρατάω μικρό καλάθι)

 

Πρωταπριλιάτικο αστείο ήταν. Mερικές λεπτομέρειες για το D3D11 για τις οποίες είμαι σίγουρος προς το παρών: programmable tesselation, programmable ROPs. Με ερωτηματικό είναι προς το παρών π.χ. order independent transparency μεταξύ άλλων.

 

Προσωπικά νομίζω ότι καλύτερο δρόμο έχουν χαράξει η ati και η nvidia σε σχέση με την Intel. Η Intel θέλει να φέρει κατευθείαν την επανάσταση… δύσκολο πράγμα αυτό.

Η ati έχει την τεχνογνωσία της Daaamit σε ζητήματα multichip scaling, και τεχνογνωσία σε συνεπεξεργαστές που κάθονται σε cpu socket. H amd σίγουρα μπορεί να παρουσιάσει singlechip cpu/chipset/gpu, αλλά ξέρει καλά ότι αυτό το chip θα είναι φθηνό και μικρών επιδόσεων προσανατολισμένο στην non-gaming αγορά. Προσωπικά περιμένω να δώ μικρούς ευέλικτους πυρήνες με NUMA και γρήγορο chip to chip/core to core bus.

H nvidia έχει καλή γνώση του ʽworkflowʼ ενός παιχνιδιού. Εδώ είναι που εφαρμόζει έξυπνες λύσεις βασισμένη στην πραγματικότητα και άρα επιταχύνοντας τα πραγματικά bottlenecks. Το μόνο κακό εδώ είναι η κακές σχέσεις με την Intel καθώς η nvidia πιθανά να χρειαστεί πολύ δουλειά στα επόμενα chipset της.

 

Δεν περιμένω τόσο θεαματικές αλλαγές με την πρώτη γενιά του Larabee. Εσωτερικά η Intel έχει γίνει πολύ πιο προσεκτική με τις μελλοντικές προβλέψεις της, πράγμα που δείχνει ότι η αρχική αυτοπεποίθηση έχει ξεφουσκώσει κάπως. Μια μάχη (μεταφορικά) σε βάση λογισμικού μπορεί να είναι μόνο επιτυχημένη αν βολεύει τους δημιουργούς παιχνιδιών. Δεν υπάρχει ούτε μια στο εκατομύριο να τους πείσεις να χρησιμοποιήσουν λύσεις που δεν τις θεωρούν ιδανικές. Και όχι δεν υπάρχει δίλημμα μεταξύ περπατημένης και μη.

Δημοσ.
τι λετε ρε παιδια? οχι buffer overflow, αλλα core meltdown εχω παθει με αυτά που γραφετε μερικοί. Είπαμε forum για υπολογιστές είναι γενικά το insomnia όχι για σχεδιαστές επεξεργαστών.

 

Σορρυ κιόλας αλλά για το 90% των χρηστών εδω μέσα μιλάτε εντελώς κινεζικα.

 

Φιλικά παντα.

 

Μια ξένη γλώσσα είναι πάντα χρήσιμη γιατί είναι πολύ βαρετό να γλύφεσαι μόνος σου LOL :D

Αρχειοθετημένο

Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...