Προς το περιεχόμενο

Nvidia GT300 & ATI RV870


Thresh

Προτεινόμενες αναρτήσεις

  • Απαντ. 2,9k
  • Δημ.
  • Τελ. απάντηση
Δημοσ.

Τιποτα το ιδιαιτερο, μικρολεπτομερειες που δεν φαινονται καν αν δεν προσεξεις. Προηγουμενως εγω ειχα δει ορισμενες μικροατελειες στο scrolling που αφηνε ετσι μερικα ιχνη ghosting σε πραγματα που λαμπιριζαν και η camera εκανε καποιες γρηγορες κινησεις (φεγγαρι παραδειγμα, μαγειες με particle effects κτλ) αλλα γενικα δεν το εβλεπες αν δεν το προσεχες. Πλεον δεν υπαρχουν αυτα καν. Μιλαμε για εντελως rock solid ποιοτητα εικονας και scrolling χωρις το παραμικρο ghosting.

Δημοσ.

ATI's Mobility HD 5650 tested

http://www.fudzilla.com/content/view/16916/1/

παρακάμψτε το άρθρο και δείτε κατευθείαν μετρήσεις εδώ:

http://www.notebookjournal.de/tests/notebook-review-deviltech-fire-dtx-nkmo-1073/1

 

FTC paves the way for Nvidia's x86

http://www.fudzilla.com/content/view/16926/1/

αυτό είναι εξαιρετικά ενδιαφέρον αλλά και πάλι παρακάμψτε το να πάτε στο full story

http://bits.blogs.nytimes.com/2009/12/17/has-the-ftc-opened-the-door-for-the-great-chip-war/?ref=technology

Δημοσ.
εξωπραγματικα framerates (στο Half Life 2 episode 2 βλεπω frames της ταξης των 350+ σε εξωτερικο περιβαλλον να γινεται χαμος τη στιγμη που η 4870 εβγαζε με το ζορι καμια 120-140).

 

Για σοβαρέψου... Το Half-Life 2 (όλη τη σειρά) το είχα παίξει με αξιώσεις με την ενσωματωμένη κάρτα της μητρικής μου, HD3200, όσο περίμενα να μου έρθει η HD4850.

Δημοσ.
Για σοβαρέψου... Το Half-Life 2 (όλη τη σειρά) το είχα παίξει με αξιώσεις με την ενσωματωμένη κάρτα της μητρικής μου, HD3200, όσο περίμενα να μου έρθει η HD4850.

 

Δεν το λεω για το αν παιζει η οχι. Το λεω απο την αποψη της διαφορας ταχυτητας στην ιδια μηχανη (force απο hardware μεσω ATT). Διπλασιασμο ειχα και στο bench του stalker COP ειδικα στο τελευταιο τεστ οπου τα minimum frames ηταν 37 και τα μαχ 76. Παντα σε σχεση με την 4870 που δεν ειχα και -τα παντα- αναμμενα και οχι με 8χΑΑ. Μονο στο Crysis κατεβαζω στα 4χΑΑ για να εχω ενα σχετικα καλο αποτελεσμα.

Δημοσ.

"Το FTC δείχνει τον δρόμο για x86 CPU από την Nvidia..."

 

http://www.fudzilla.com/content/view/16926/1/

 

O F.U.D. Μπάζοβιτς συνεχίζει να πλέκει τα βιβλικά παραμύθια του και να κρατάει την φλόγα ζωντανή, η ελπίδα πεθαίνει τελευταία... :lol::lol::lol:

 

Η Nvidia μπορεί κάλλιστα να ξεκινήσει από έναν 386/486 μιας και έχουν λήξει τα ips. Και σε 5-6 χρόνια μαζί με 5 δισεκατομμύρια δολλαρια για R&D μπορεί να έχει φτιάξει κάτι ανάλογο του Core 2 Duo.

 

"Nvidia - Δεν φτιάχνουμε chipsets για την AMD μιας και δεν μας ενδιαφέρει πλέον"

 

http://www.fudzilla.com/content/view/15852/1/

 

:lol::lol::lol:

 

2mm8nwl.jpg

 

---------- Το μήνυμα προστέθηκε στις 02:12 ----------

 

[28r1g0z.jpg

http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

 

Από ότι φαίνεται, τα low binned κομμάτια, την πλέμπα, την πασάρει στους επαγγελματίες μαδιζοντας τους σαν κοτόπουλα, και τα high bin, την αφρόκρεμα, θα τα πασάρει asap για τους gamers και τους reviewers για να μην σκιστεί κανένα καλσόν στο Pr/Marketing...

Δημοσ.

grimpr,

 

΄Οχι για το τελευταίο αν διαβάσεις προσεκτικά την σχετική συζήτηση για το GF100 στο B3D. Θέλουν απλά να κρατήσουν την κατανάλωση ρεύματος κάτω από τα 225W ΤDP / GPU και είτε το κάνουν με [email protected] είτε με [email protected] δεν αλλάζει τίποτα το θεαματικό όσων αφορά την αριθμητική επάρκεια στις δύο αυτές περιπτώσεις.

 

GT200/Tesla C10x0 = up to 4GB 800MHz GDDR3 (non EEC)

GF100/Tesla C20x0 = up to 6GB 1200MHz GDDR5 EEC

 

Για να βρεις άκρη εδώ θα πρέπει να ξέρεις ακριβώς πόσο ρεύμα καταναλώνει η κάθε λύση με την ανάλογη ποσότητα μνήμης και πόσο επηρεάζει το EEC την κατανάλωση ρεύματος, τις επιδόσεις και το εύρος μνήμης.

 

Σκέψου απλά ότι για κάθε τι που περνάει από την onboard μνήμη θα πρέπει στις Tesla να ελέγχει όλα τα δεδομένα για μικρολάθη που σημαίνει παραπάνω επεξεργασία, άρα μικρότερες επιδόσεις και άρα μεγαλύτερη κατανάλωση ρεύματος.

 

Με φθίνουσα σειρά οι διαφορές συχνοτήτων πυρήνα θα έχουν ως εξής:

 

GeForce (EEC disabled) ---> Quadro (EEC disabled) ---> Tesla (EEC enabled).

 

Αυτό φυσικά δεν σημαίνει ότι θα υπάρξει κάποια ανακοίνωση μέσα στον Γενάρη. Ακόμα και για τον Φεβρουάριο έχω αμφιβολίες αλλά βάση της ίδιας της ιστοσελίδας της NV υπάρχει αυτή τη στιγμή το ακόλουθο:

 

Availability: Tesla C2050 in early Q2 2010, Tesla 2070 in Q3 2010
http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

 

C2050 = [email protected]

C2070 = [email protected]

 

Εκτός των άλλων όσοι αγοράσουν μέχρι τις 31/01/2010 κάτι σε Tesla C1060/1070 παίρνουν δωρεάν αναβάθμιση σε C2050/2070 αντίστοιχα μόλις αυτά γίνουν διαθέσιμα:

 

http://www.nvidia.com/object/mad_science_promo.html

 

Από 16/11/2009:

 

http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

Δημοσ.
Για να δουμε....Λογικα θα τα κανει σχεδον τελεια με 32χ

 

Δεν υπάρχει ούτε καν θεωρητική "τελειότητα" με εξομάλυνση. Το ΑΑ δεν είναι τίποτε άλλο παρά μια μέθοδος να ξεγελάσει το ανθρώπινο μάτι ότι δεν υπάρχει aliasing σε μια δεδομένη στιγμή και όχι να αντιμετωπίσει το πρόβλημα των συχνοτήτων καθεαυτού.

 

Αν έπεσα μέσα θα έχεις μια σχετικά καλή αύξηση ποιότητας έναντι του σημερινού 16x (4xMSAA + 12xCSAA) που σαφώς και θα είναι καλύτερο από το 8xMSAA αλλά όχι καλύτερο σε πραγματικό χρόνο από 12χΜSAA μιας και το coverage sampling δεν επεξεργάζεται τα πάντα για να εξοικονομήσει μνήμη και εύρος μνήμης.

Δημοσ.
πoιο ειναι καλτερο 16xq η το ssaa 2x2 η το 8xs ??

 

Και από θέμα ποιότητας και από άποψη επιδόσεων κερδίζει το 8xS έναντι των άλλων δύο. Αν έχεις την πολυτέλεια επιδόσεων σε παλιότερα παιχνίδια να πας σε 16xQ μπορείς να πας και σε 16xS που είναι ακόμα καλύτερο από το 8xS.

Αρχειοθετημένο

Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...