john2gr Δημοσ. 24 Απριλίου 2007 Δημοσ. 24 Απριλίου 2007 Οι Nvidia κάρτες ακόμα έχουν πρόβλημα με τα μακρινά textures πλέον στα Call Of Juarez,El Matador,GRAW1 και στο GRAW2 (στο οποίο υπάρχει και flickering αλλά ελπίζω η Grin να το διορθώσει),στο Rainbow Six: Las Vegas αν ενεργοποιήσεις το FSAA + HDR τότε εξαφανίζονται οι σκιές,στο Splinter Cell : Double Agent ο φωτισμός τα έχει παίξει και εξαφανίζεται/εμφανίζεται αναλόγως την απόσταση του Sam από την πηγή φωτος κλπ κλπ. Επίσης υπάρχει πρόβλημα γραμμής και θολών textures σε μερικά παιχνίδια όταν ενεργοποιείς το Anisotropic Filtering από το Control Panel (κι ας επιλέξεις High Quality). Τα προβλήματα αυτά τα έχω δηλώσει στην Nvidia και ακόμα προσπαθούν (και καλά) για "re-produce bugs" στα μηχανάκια τους. Εγώ λέω ότι με έγραψαν στα @@ τους αλλά τέσπα. Με απλά λόγια. Όσο ευχαριστημένος ήμουν από την ΑΤΙ για τους drivers της όσο καιρό είχα τις ΑΤΙ κάρτες (9800Pro,X800Pro),άλλο τόσο είμαι ευχαριστημένος από την Nvidia. Κι οι 2 εταιρείες έχουν πρόβλημα και πλέον με τίποτα δεν θεωρώ την ΑΤΙ "amateur" στο θέμα των drivers. Στα ίδια και μπορεί καλύτερα επίπεδα από την Nvidia βρίσκεται ΤΩΡΑ. PS: Razor333,εγώ πήρα κυρίως την 8800 για την ταχύτητα της. Τα λεφτά της τα έχει βγάλει στο χαλαρό και μόνο που έτρεξε τέλεια το Oblivion με όλα τα graphical mods και με FSAA+AF+HDR. Και σε περίπτωση που ξεχάσατε πως μοιάζει,admire it
EKTELESTES Δημοσ. 25 Απριλίου 2007 Μέλος Δημοσ. 25 Απριλίου 2007 Καλα αυτες οι διαφορες ειναι σε παλια πλεον παιχνιδια και στο 3dmark06, περιμενετε να δουμε dx10 παιχνιδια, εκει θα πεσει πολυ γελιο. Και αληθεια εσεις με τις 8800 ποσα dx10 παιχνιδια παιξατε τωρα τελευταια? Πηρα τον σεπτεμβριο μια x1900GT με 170ε και δεν μου ειπε οχι σε κανενα παιχνιδι, ακομα και σημερα σε αυτα τα λεφτα (που εχουν να δωσουν οι περισσοτεροι) η nvidia δεν εχει παρουσιασει καλυτερη καρτα. Εχει βγαλει τις 8800 εδω και ενα 7μηνο, οι οποιες ειναι πολυ γρηγορες αλλα χωρις νοημα, πρεπει να πας σε υπερβολικες αναλυσεις και να βαλεις ενα σωρο φιλτρα για να πεις οτι επιασαν τοπο τα λεφτα σου, αλλα και παλι δεν ειναι αυτο το νοημα, κανονικα παιρνεις μια dx10 καρτα για να παιξεις dx10 παιχνιδια. Razor, συγγνώμη αλλά είσαι τελείως λάθος τώρα. Δε μπορεί να μου συγκρίνεις την x1900gt και να λες δε σου είπε όχι. Βάλε Oblivion και high-res textures και άμα πιάσεις και 18 frames στείλε μας e-mail. Δε πήραν dx10 κάρτα, πήραν την ταχύτερη dx9 η οποία είναι κορυφαία. Για καθαρό dx10 θα περιμένουμεεεεεεεεεεε.......... Συμφωνώ όμως σε αυτό που λες ότι σε κάποια χρήματα υπάρχουν κάρτες που κερδίζουν καθαρά και με μεγάλες διαφορές. Οι Nvidia κάρτες ακόμα έχουν πρόβλημα με τα μακρινά textures πλέον στα Call Of Juarez,El Matador,GRAW1 και στο GRAW2 (στο οποίο υπάρχει και flickering αλλά ελπίζω η Grin να το διορθώσει),στο Rainbow Six: Las Vegas αν ενεργοποιήσεις το FSAA + HDR τότε εξαφανίζονται οι σκιές,στο Splinter Cell : Double Agent ο φωτισμός τα έχει παίξει και εξαφανίζεται/εμφανίζεται αναλόγως την απόσταση του Sam από την πηγή φωτος κλπ κλπ. Επίσης υπάρχει πρόβλημα γραμμής και θολών textures σε μερικά παιχνίδια όταν ενεργοποιείς το Anisotropic Filtering από το Control Panel (κι ας επιλέξεις High Quality). Τα προβλήματα αυτά τα έχω δηλώσει στην Nvidia και ακόμα προσπαθούν (και καλά) για "re-produce bugs" στα μηχανάκια τους. Εγώ λέω ότι με έγραψαν στα @@ τους αλλά τέσπα. Με απλά λόγια. Όσο ευχαριστημένος ήμουν από την ΑΤΙ για τους drivers της όσο καιρό είχα τις ΑΤΙ κάρτες (9800Pro,X800Pro),άλλο τόσο είμαι ευχαριστημένος από την Nvidia. Κι οι 2 εταιρείες έχουν πρόβλημα και πλέον με τίποτα δεν θεωρώ την ΑΤΙ "amateur" στο θέμα των drivers. Στα ίδια και μπορεί καλύτερα επίπεδα από την Nvidia βρίσκεται ΤΩΡΑ. Α μπράβο, αυτό λέω κ εγώ, και οι 2 έχουν προβλήματα και πάντα θα έχουν. Χιλιάδες παιχνίδια και χιλιάδες συνθέσεις υπολογιστών = ζόρικα πράγματα.
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Updated: * Our benchmarks for Half Life 2: Episode 1 showed an abnormal framerate for the NVIDIA GeForce 8800 GTS card that scaled with lower resolutions -- we believe there was a copy error. We reran the tests this morning and achieved 119.2 frames per second with the GeForce 8800 GTS. http://www.dailytech.com/article.aspx?newsid=7043 h 8800 kaiei thewritika ews 150W, sinithws paizei sta 130,kai afta otan th skizeis me ena 3d-mark px se kamia periptwsi 230 watt:? To PCB στις 2900 είναι μικρότερο από τις 8800. Η δε κατανάλωση της 8800GTX είναι στα 140W και ο άμεσος ανταγωνισμός θα πρέπει να την ξεπερνάει με κάτι παραπάνω από 40W.
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Στα 449 ευρώ πιστεύω ότι ΧΑΛΑΡΑ αξίζει μια 2900ΧΤ (αν σηκώνει καλό overclocking πάντα). Στην παρούσα φάση η overclocked κάρτα μου είναι καλύτερη από την εργοστασιακή 2900ΧΤ (πράγμα αυτονόητο καθώς και στο παραπάνω bench γίνεται κόντρα με την 8800GTS κι όχι την 8800GTX). Αν όμως σε stable overclocking η Χ2900ΧΤ φτάνει τις 14 χήνες στο 3DFart2006 (αλλά υπάρχει και αισθητή διαφορά στα παιχνίδια) τότε χαλαρά θα πουλήσω στα 300 ευρώ την 8800 μου και θα πάρω την Χ2900ΧΤ. Περιμένω περισσότερα στα οποία θα έχουν δοκιμάσει την Χ2900ΧΤ με overclock. Για ακούστε Κύριε το 3dfart είναι trademarked by me...ξηγηθήκαμε; LOL Πέρα από τα αστεία καιρός να επικεντρωθείτε λίγο στα αποτελέσματα των παιχνιδιών και να αφήστε το μαμημένο 3dfart στην άκρη. ΄Η αν μη τι άλλο τρέξε το στα 1600*1200 μιας και το dailytech έβαλε αποτελέσματα και από αυτή την ανάλυση για να περιορίζει λιγότερο ο επεξεργαστής. Σαφώς και θα έχουν τα προτερήματά τους οι 2900, αλλά δεν πρόκειται για τον "G80-killer" που περιμένανε όλοι. Το μόνο που θα κάνει η NVIDIA είναι να χαμηλώσει τις τιμές για τις 8800 της μόλις κυκλοφορήσουν οι ανταγωνιστικές λύσεις. Να θυμίσω ότι η φθηνότερη GTS/640MB αυτή τη στιγμή στις ΗΠΑ στοιχίζει $360. Αν η 2900ΧΤ κυκλοφορήσει με αρχικό MSRP στα $449 όπως τότε η 8800GTS δεν βλέπω καμία ιδανική σχέση απόδοσης/τιμής σε σχέση με τον άμεσο ανταγωνισμό, ίσα ίσα το αντίθετο. Οι μετρήσεις που βλέπεις είναι ΜΟΝΟ από 2900ΧΤ και ναι έχουν σαν στόχο την 8800GTS/640 και ΟΧΙ την 8800GTX. Μην μπερδεύεσε λοιπόν με 3dfart scores άδικα.
EKTELESTES Δημοσ. 25 Απριλίου 2007 Μέλος Δημοσ. 25 Απριλίου 2007 John - με όλο το σεβασμό, προσβάλλεις το παιχνίδι με αυτήν την εικόνα. Ψάξε να βάλεις καμιά με ηλιοβασίλεμα κλπ, γιατί εχω βγάλει τα mods κ βαριέμαι να τα ξαναβάλω. Ίσως βάλω αύριο τπτ έτσι για να τσεκάρουμε εικόνες
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Παρεπιπτόντως (αν και δεν βλέπω να το παρατήρησε κανείς ως τώρα) τα αποτελέσματα από το SpecViewperf είναι για τον σκουπιδοντενεκέ. Ο κύριος του dailytech θα έπρεπε να γνωρίζει ότι η Quadro5500 βασίζετε στην σειρά G7x και όχι G8x. Quadro FX5600 = G80/384bit bus Quadro FX5500 = G71/256bit bus Quadro FX4600 = G80/384bit bus Quadro FX4500 = G71/256bit bus http://www.nvidia.com/page/qfx_uhe.html
EKTELESTES Δημοσ. 25 Απριλίου 2007 Μέλος Δημοσ. 25 Απριλίου 2007 Ail, αν υποθέσουμε οτι αυτά τα αποτελέσματα στα 1280 είναι αληθινά, μπορούμε να υποθέσουμε ότι όσο ανεβαίνουν οι αναλύσεις θα κερδίζει περισσότερο έδαφος η ΑΤΙ ?? τι παίζει με τα bandwidth και τις τεχνολογίες που έχει η κάθε κάρτα??
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Ail, αν υποθέσουμε οτι αυτά τα αποτελέσματα στα 1280 είναι αληθινά, μπορούμε να υποθέσουμε ότι όσο ανεβαίνουν οι αναλύσεις θα κερδίζει περισσότερο έδαφος η ΑΤΙ ?? τι παίζει με τα bandwidth και τις τεχνολογίες που έχει η κάθε κάρτα?? To εύρος μνήμης δεν είναι ο μόνος παράγοντας που χρειάζεται μια κάρτα για μεγαλύτερη επάρκεια με εξομάλυνση σε υψηλότερες αναλύσεις. Μετράνε και οι δυνατότητες των ROPs και ο αριθμός αυτών μεταξύ άλλων. Οι R600 έχουν afaik 16 (8Ζ) ROPs. Αν υποθέσουμε ότι η 2900ΧΤ είναι χρονισμένη στα 745MHz: 16*8*745= 95360 Z fillrate 800MHz GDDR3@512bit = 102.4GB/s bandwidth 512MB framebuffer 8800GTS: 20*8*500= 80000 Z fillrate (-19%) 800MHz GDDR3@320bit = 64.0GB/s bandwidth (-60%) 620MB framebuffer (+21%) Από του 3 αυτούς παράγοντες την μικρότερη διαφορά στις επιδόσεις με ΑΑ συνολικά κάνει το εύρος μνήμης. Οι υπόλοιπες διαφορές λίγο πολύ ισορροπούν. Αν υπάρξει διαφορά δεν θα είναι IMHLO λόγω του εύρους μνήμης, αλλά χάρη στο εσωτερικό shader fillrate: 2900XT@745MHz 64 5D ALUs (Vec4 MADD + Scalar MADD) Vec4 MADD = 8 FLOPs Scalar MADD = 2 FLOPs ------------------------------ 64*10FLOPs*0.745GHz = 477 GFLOPs/s 8800GTS@500MHz 96 Scalar ALUs (Scalar MADD + Scalar MUL) Scalar MADD = 2 FLOPs Scalar MUL = 1 FLOP ----------------------------- 96*3FLOPs*1.2GHz = 346 GFLOPs/s Εγώ βέβαια ξέρω ότι οι 2900 θα είναι χρονισμένες στα 800ΜΗz και όχι στα 745MHz αλλά δεν μπορώ να ξέρω και τις τελικές αποφάσεις της ΑΜD. Αν νομίζεις ότι εδώ το μπέρδεμα τέλειωσε και έβγαλες τον νικητή βάση θεωρητικών GFLOP rates και πάλι έκανες λάθος. Εξαρτάται πόσα splits έχει βάλει η ΑΤΙ στα ALUs της για να καθορίσει έστω και πολύ πρόχειρα μια εκτίμηση της επάρκειάς τους. Αν εδώ υστερούν τότε φυσικά οι μονάδες scalar υπερτερούν σε επάρκεια σε σχέση με τις Vec4. "Μονάδες" Vec4 έχει μια R600 συνολικά 256 (64*4). Aν τώρα χρησιμοποιούνται εντολές Vec3 τότε χωρίς το ανάλογο split κάθονται 64 "μονάδες" στην άκρη άπραγες. Υπεραπλουστευμένα μεν αλλά ελπίζω να βοηθάει. Πέρα από τις ανοησίες ούτε το G80 έχει 128 SPs ούτε το R600 ανάλογα 320 SPs. Στην πρώτη περίπτωση έχεις 8*Vec16 (1D)ALUs και στην δεύτερη 4*Vec16 (5D)ALUs (με διαμετρικά μεγαλύτερο πλάτος στην δεύτερη περίπτωση, μία διάσταση στην πρώτη περίπτωση και πέντε στην δεύτερη). Αν ξεκαθαριστεί η επάρκεια των εκάστοτε ΑLUs τότε η απάντηση σε καθαρά θεωρητικό επίπεδο θα είναι αρκετά ευκολότερη. Τέλος το εύρος μνήμης οι R600 το έχουν για άλλο λόγο. Εν καιρώ θα φανερωθούν όλα
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Mιας και βγήκανε πια και στην φόρα τα specs της 8800Ultra: TMUs/ROPs = 675MHz (43.2GTexels bi/AF, 129600 Z fillrate) Shader clock = 1600GHz (614 GFLOPs/s) Ram = 1175MHz GDDR3 (112.8 GB/s) Aν υποθέσω ότι η 2900ΧΤΧ θα είναι στα 800/1000ΜΗz TMUs/ROPs = 25.6 GTexels bi/AF, 102400 Z fillrate ALUs = 512 GFLOPs/s Ram = 128 GB/s
EKTELESTES Δημοσ. 25 Απριλίου 2007 Μέλος Δημοσ. 25 Απριλίου 2007 Πω πω ρε άτιμε, ούτε σοφιστής να ήσουν.... Τελικά καταλήξαμε οτι δεν έχουμε ιδέα ποια θα κερδίζει σε μεγάλες αναλύσεις ή σε αυτό που περιμένουμε όλοι, ότι η ΑΤΙ θα είναι καλύτερη, όπως αναμενόταν για 6-7 μήνες πιο καινούρια κάρτα??
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Πω πω ρε άτιμε, ούτε σοφιστής να ήσουν.... Τελικά καταλήξαμε οτι δεν έχουμε ιδέα ποια θα κερδίζει σε μεγάλες αναλύσεις ή σε αυτό που περιμένουμε όλοι, ότι η ΑΤΙ θα είναι καλύτερη, όπως αναμενόταν για 6-7 μήνες πιο καινούρια κάρτα?? Cliff notes: ~+15-20% average more performance Να σημειώσω ότι η 2900ΧΤΧ δεν προβλέπεται να κυκλοφορήσει μαζί με την ΧΤ τελικά.
EKTELESTES Δημοσ. 25 Απριλίου 2007 Μέλος Δημοσ. 25 Απριλίου 2007 Αν πιστέψουμε ότι διαβάσαμε το ίδιο σάιτ, ίσως να μη βγουν μαζί αλλά έλεγε κάτι για Σεπτέμβρη το οποίο μάλλον γελοίο ακούγεται ( βέβαια αν σε πάρει ο κατήφορος πολλά γίνονται.. ) και έλεγε και διάφορα για προβλήματα 2 τσιπ στην ίδια κάρτα με έυρος 512 και διάφορα άλλα. Θα ξέρουμε σύντομα πλέον.
desolatorXT Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Εγώ είχα πεί σε κάποιο thread ότι η ΑΤΙ μετά την εξαγορά της απο την AMD θα αποκτησει πολλές νέες τεχνικές γνώσεις και το αντίστροφο... Τα ίδια αποτελέσματα περιμένετε και στην νέα γενιά επεξεργαστών απο ΑΜΔ που θα ακολουθήσει
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Εγώ είχα πεί σε κάποιο thread ότι η ΑΤΙ μετά την εξαγορά της απο την AMD θα αποκτησει πολλές νέες τεχνικές γνώσεις και το αντίστροφο... Τα ίδια αποτελέσματα περιμένετε και στην νέα γενιά επεξεργαστών απο ΑΜΔ που θα ακολουθήσει Με την αγορά της ΑΤΙ τις έχει αποκτήσει ήδη. Για την AMD η αγορά μιας τέτοιας εταιρίας ήταν αναγκαία μιας και η γενικές ανάγκες της αγοράς στο μέλλον προστάζουν οι επεξεργαστές να έχουν και κάποιες υπομονάδες που θα επεξεργάζονται και γραφικά. Στην ίδια κατεύθυνση κινείται και η INTEL.
Ailuros Δημοσ. 25 Απριλίου 2007 Δημοσ. 25 Απριλίου 2007 Αν πιστέψουμε ότι διαβάσαμε το ίδιο σάιτ, ίσως να μη βγουν μαζί αλλά έλεγε κάτι για Σεπτέμβρη το οποίο μάλλον γελοίο ακούγεται ( βέβαια αν σε πάρει ο κατήφορος πολλά γίνονται.. ) και έλεγε και διάφορα για προβλήματα 2 τσιπ στην ίδια κάρτα με έυρος 512 και διάφορα άλλα. Θα ξέρουμε σύντομα πλέον. H αλήθεια είναι ότι 1GB GDDR4 δεν είναι ιδιαίτερα φτηνό αυτή τη στιγμή. ΄Αλλωστε παίζει και η διαθεσιμότητα της μνήμης αυτής. Σίγουρα θα υπάρχει λόγος που η NV παραμένει στο GDDR3 (μάλλον 0.8ns) για την Ultra. Aπό κει και πέρα οι ράδιο αρβύλες δίνουν και παίρνουν κατά καιρούς. Δεν θυμάμαι αν ήταν σε αυτή την ενότητα εδώ ή σε άλλη που κάποιος είπε ότι το R700 θα έρθει το 2009. Θα είναι αυτό που περιγράφεις, D3D10.1 συμβατό και θα έρθει κατά πολύ νωρίτερα από ότι μερικοί υπολογίζουν.
Προτεινόμενες αναρτήσεις
Αρχειοθετημένο
Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.