Ailuros Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Ναι αλλά αν σκεφτείς πως το xbox 360 το οποίο εχει αντικειμενικά την πιο ισχυρή gpu στο current gen στηρίζεται σε ενα costum build Ati r5...Θα πάρουν μια current gpu πάλι θα της πετάξουν και καμποση ondie cache και θα εχουμε την νέα super duper gpu του sony... To Χenos του XBox360 έχει 48 ALUs ενώ μια σημερινή 5870 320 ALUs. To Xenos δεν έχει ουδεμία σχέση με την R5x0 αλλά είναι μια μικρότερη DX9.0+ έκδοση του R600 (64 ALUs). ΄Ενα θεωρητικό 16-core SGX543 MP cluster της IMG θα έχει και αυτό μόλις 64 ALUs και αν αυτό ακόμα δεν βοηθάει να καταλάβεις τις μετρικές διαφορές φοβάμαι ότι δεν μπορώ να βοηθήσω άλλο. Το 2011 το AMD Llano που θα είναι σαν SoC αντικαταστάτης των σημερινών PC IGP θα έχει 48 ALUs, oπότε σκέψου πως θα είναι το απόλυτο PC low end το 2012. Και μετά θα αναρωτιούνται οι με ακριβές vga για pc γιατί με dx11-dx12-dxxx κάρτες που κάνουν παπάδες βλέπουμε πάλι τα ίδια και τα ίδια console ports.Θεωρητικά πάντος το κύκλωμα για τα graphics του ps4 θα είναι της intel αφού γνωστά gossip tech sites μιλούσαν μέχρι πριν απο κάποιες βδομάδες για νίκη της intel και συμμαχία με την sοny για την gpu του ps4... 1. Δεν ήταν βδομάδες αλλά μήνες.2. Υπήρξε άμεση και αυστηρή ανακοίνωση τότε της SONY ότι δεν υπάρχει θέμα συνεργασίας μεταξύ αυτής και της Intel όσων αφορά GPU IP. 3. Aν τυχών δεν το πήρες χαμπάρι ακόμα το Intel Larabee είναι επισήμως RIP (rest in peace) ή αλλιώς πιο νεκρό δεν γίνεται. ---------- Το μήνυμα προστέθηκε στις 09:17 ---------- 7/12/2009 Nvidia - "Θέλω απροβλημάτιστα parts στα 40nm, τα πράγματα είναι δύσκολα για τα 3.2 δισεκατομμύρια transistors μου τώρα και ακόμη περισσότερο για τα 10 μελλοντικά, έχουμε χτυπήσει τοίχο στα Thermals και στο Leakage, ψαχνόμαστε για Silicon On Insulator στην GLOBALFOUNDRIES"." http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects.php Εκτός αν μου διαφεύγει κάτι δεν υπάρχει ουδεμία αναφορά στο άρθρο όσων αφορά SOI ή Globalfoundries. 1. Κανένας IHV με λίγο μυαλό δεν θα κατασκευάσει GPU σε SOI. 2. Για SoCs το SOI είναι μια απόλυτα λογική σκέψη και ναι η NV όντως το ψάχνει το θέμα, αλλά αν σου διαφεύγει τα Tegra SoCs τα κατασκευάζει η ίδια η NV αγοράζοντας IP για τα ARM CPUs. 08/11/2009 Nvidia - " Η GLOBALFOUNDRIES είναι μαγαζί της AMD, δεν δίνουμε σημασία και ΔΕΝ μας ενδιαφέρει." http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocessors.html Marketing bullshit. Φυσικά αν δούνε ότι η GF είναι σαφώς καλύτερη λύση στο μέλλον θα μεταπηδήσουν ένα κομμάτι της παρασκευής τους εκεί. Προς το παρών και δεδομένου πόσο μαμημένα είναι τα 40nm@TSMC θα ήταν μάλλον κακή ιδέα να τσαντίσεις έναν τέτοιο συνεργάτη πριν σε βοηθήσει να λύσεις όλα τα προβλήματά σου. ---------- Το μήνυμα προστέθηκε στις 09:31 ---------- Στις πατέντες και στα χαρτιά, η IBM είναι πρώτη παγκοσμίως. Στην πραγματικότητα όμως, η Intel είναι ο κορυφαίος κατασκευαστής semi. Xμμμ ναι.... μόνο που ξέχασες να αναφέρεις με τι μεθόδους έφτασε εκεί. Μέχρι τώρα την σκαπουλάρανε με οποιοδήποτε FTC Probe: http://www.brightsideofnews.com/news/2009/12/7/ftc-probe---intel-caught-with-hand-in-cookie-jar.aspx To ερώτημα είναι αν θα την σκαπουλάρουν και αυτή τη φορά.... Αν υπάρχει έστω και μια περίπτωση όλοι η υπόλοιπη βιομηχανία να ανταγωνιστεί την Intel στην κατασκευή, είναι μέχρι στιγμής μόνο με την IBM Alliance και την Globalfoundries. Ο νόμος του Moore από ότι συζητάτε άντε να κρατήσει το πολύ άλλα 7-8 χρόνια, τα κόστη αυξάνονται γεωμετρικός στα ποιο χαμηλά nodes, τα προβλήματα πολλαπλασιάζονται, thermal walls, memory walls, leakage και ούτω καθεξής.Eγώ πρώτα βλέπω και αναλύω και μετά ψωνίζω κάτι καινούργιο. Εσύ τι λες να κάνει η NV ακριβώς; Δεδομένου ότι η Intel δεν πρόκειται να πετάξει την LRB στα σκουπίδια, πάει κατευθείαν για 3η γενιά το 2012 στα 32/22 nm και της αλαζονείας της Nvidia με τις μαλακίες του CEO της, προσωπικά δεν την βλέπω καθόλου καλά στο μέλλον εάν συνεχίσει το ίδιο τροπάρι. Πάντως, με την ακύρωση της LRB, οι μετοχές της NV και της AMD τσίμπησαν λίγες μονάδες...΄Ενα πτηνό μου τιτίβισε ότι σκέφτονται να εγκαταλείψουν το x86 hw decoding. Σαφώς και δεν θα το πετάξει στα σκουπίδια, αλλά όσο μεγαλύτερο το re-design τόσο μεγαλύτερος ο σάκκος απορριμάτων. Στην δεδομένη περίπτωση στην 32 core έκδοση η χ86 λαλακία αποτελούσε περίπου το 30% του die area δηλαδή χοντρικά 180mm2. Προσωπικά θα προτιμούσα να δω περισσότερα threads ανά πυρήνα και γιατί όχι επιτέλους hw rasterizer, αλλά μάλλον είμαι λίγο παραπάνω αισιόδοξος από ότι χρειάζεται. Πέρα από τις τυπικές εξάρσεις βλακείας του καθένα αν ο Jensen δεν ήταν τόσο καλός στη δουλεία του (και το "καλός" φυσικά θα πρέπει να το εκλάβει κανείς σαν αποτελεσματικότητα όσων αφορά τους αριθμούς γιατί για αυτό ενδιαφέρονται κυρίως οι stock holders & investors....χρήμα και αξία της εταιρίας και όχι τι βλακείες τσαπουνάει δεξιά και αριστερά) θα είχε φάει πόδι προ πολλού. Αν τώρα στο μέλλον στην εταιρία αισθανθούν ότι ευθύνεται για οποιοδήποτε φιάσκο τότε ναι. Ακόμα και το τεράστιο NV30 FLOP κατάφερε να γυρίσει προς όφελός του και αναμένουμε το 2010 να δούμε πως θα μπαλώσει τα GF100 προβλήματα. ΄Οσο πάντως η εταιρία καταφέρνει να βγάζει κέρδη δύσκολο να αλλάξει κάτι. Εν αντιθέση το Larabee Prime αποτέλεσε μια τεράστια τρύπα στον ντορμπά της Intel και αν και μπορούν να φτιαρίζουν με λεφτά σαν μεγαθύριο που είναι ένας κύριος Gelsinger δεν πέρασε αδίκως στα αζήτητα.
Super Moderators Thresh Δημοσ. 9 Δεκεμβρίου 2009 Μέλος Super Moderators Δημοσ. 9 Δεκεμβρίου 2009 Τιποτα απλα ενα μερος του 13ου μισθου ηθελα να το φαω σε μια 5850 μιας και αυτη θα ειναι η καρτα μου η επομεη ετσι και αλλιως. Ειναι οπως ειπε και ο παραπανω η κριση της αναβαθμισης που με επιασε (αφου δεν τα τρωω καπου αλλου και ερχονται γιορτες με πιανει αυτο το συναισθημα). ήταν που θα την κράταγες, hehehe
Super Moderators Thresh Δημοσ. 9 Δεκεμβρίου 2009 Μέλος Super Moderators Δημοσ. 9 Δεκεμβρίου 2009 εννοώ θα την κράταγες κάνα 2 χρόνο πριν αναβαθμίσεις
Psycho_Warhead Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 εννοώ θα την κράταγες κάνα 2 χρόνο πριν αναβαθμίσεις 2 χρονια δεν βγαζει ουτε η 295
Ailuros Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 2 χρονια δεν βγαζει ουτε η 295 ΄Οσο θέλει ο καθένας κρατάει μια κάρτα γραφικών. Σαφώς και θα θέλει περισσότερες θυσίες μια 295 δύο χρόνια μετά την αγορά της σε παιχνίδια (από ότι αρχικά) αλλά μην τρελλαθούμε κιόλας ότι δεν θα μπορεί να χρησιμοποιηθεί. Να' ταν μια ενσωματωμένη IGP θα το συζητάγαμε.
Psycho_Warhead Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 ΄Οσο θέλει ο καθένας κρατάει μια κάρτα γραφικών. Σαφώς και θα θέλει περισσότερες θυσίες μια 295 δύο χρόνια μετά την αγορά της σε παιχνίδια (από ότι αρχικά) αλλά μην τρελλαθούμε κιόλας ότι δεν θα μπορεί να χρησιμοποιηθεί. Να' ταν μια ενσωματωμένη IGP θα το συζητάγαμε. Δεν ειπα οτι δεν θα μπορει να χρησιμοποιηθει αλλα δεν θα παιζει οπως παιζει στα τωρινα games......
Ailuros Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Δεν ειπα οτι δεν θα μπορει να χρησιμοποιηθει αλλα δεν θα παιζει οπως παιζει στα τωρινα games...... Aν υπολογίσω σε τι οθόνες βλέπω να κοτσάρουν οι περισσότεροι τις 295 δεν είμαι και τόσο σίγουρος ότι είναι τόσο τραγικό. Στην καλύτερη αναβαθμίζεις τον επεξεργαστή στο χρόνο επάνω και γίνεται πολύ λιγότερο CPU bound το σύστημα LOL
yiannis_1 Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Δεν ειπα οτι δεν θα μπορει να χρησιμοποιηθει αλλα δεν θα παιζει οπως παιζει στα τωρινα games...... Τα τωρινά οπως τα παίζει και τώρα θα τα παίζει και τότε.
Psycho_Warhead Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Τα τωρινά οπως τα παίζει και τώρα θα τα παίζει και τότε. Τοτε οι HD5970/Geforce 380 τι θα κανουν? λολ
sozz Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Τοτε οι HD5970/Geforce 380 τι θα κανουν? λολ δηλαδει τωρα που βγηκε επεσε η επιδοση της gtx 295??
Psycho_Warhead Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 δηλαδει τωρα που βγηκε επεσε η επιδοση της gtx 295?? οχη αλα αυταις οι καρταις γηα πηο λωγω θα βγουν?:lol:
Ailuros Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Τοτε οι HD5970/Geforce 380 τι θα κανουν? λολ Πόσο γρηγορότερη πιστεύεις ότι θα' ναι μια GeForce 360 από μια GTX295; H σημαντική διαφορά εδώ θα είναι απλά ότι η 360 θα είναι αρκετά φθηνότερη από ότι στοίχισε η 295 στο ξεκίνημά της και ότι θα καταναλώνει διαμετρικά λιγότερο ρεύμα. Και ρωτάω για άλλη μια φορά σε τι οθόνη έχει κουμπωθεί η υποτιθέμενη 295; Αν μου απαντήσεις σε 30-άρα οθόνη τότε θα πάω πάσο για εκείνες τις ΜΕΜΟΝΩΜΕΝΕΣ ΕΞΑΙΡΕΣΕΙΣ και για όλες τις άλλες περιπτώσεις ισχύει το προηγούμενο. Το ότι δεν είμαι οπαδός γενικά των dual GPU λύσεων είναι γνωστό. Πάραυτα μια 295 έχει ακόμα αρκετά αποθέματα επιδόσεων που μέχρι και σήμερα δεν έχουν εξαντληθεί όπου φυσικά δουλεύει το SLi.
yiannis_1 Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 @Psycho_Warhead Αμα διαβάσεις την φράση σου θα καταλάβεις τι εννούμε και εγω και ο sozz. Kαι κατά βάθος όλα είναι θέμα ψυχολογίας. Αμα μπαινοβγαίνεις συχνά στα tech sites και ακους για το fermi και το αντίστοιχο της Ati ακόμα και 5970 να εχεις νιώθεις ότι είναι ήδη παλιά.:lol: Βασικά μόνο αν κάνεις skip 2-3 γενιές στις vga βλέπεις διαφορά. Να πας ρε αδερφέ απο την 6800 στην 8800... Απο την 7900 στην GTX275. Η απο την 3850 στην 5750.. Να το καταλάβω.
Psycho_Warhead Δημοσ. 9 Δεκεμβρίου 2009 Δημοσ. 9 Δεκεμβρίου 2009 Πόσο γρηγορότερη πιστεύεις ότι θα' ναι μια GeForce 360 από μια GTX295; H σημαντική διαφορά εδώ θα είναι απλά ότι η 360 θα είναι αρκετά φθηνότερη από ότι στοίχισε η 295 στο ξεκίνημά της και ότι θα καταναλώνει διαμετρικά λιγότερο ρεύμα. Και ρωτάω για άλλη μια φορά σε τι οθόνη έχει κουμπωθεί η υποτιθέμενη 295; Αν μου απαντήσεις σε 30-άρα οθόνη τότε θα πάω πάσο για εκείνες τις ΜΕΜΟΝΩΜΕΝΕΣ ΕΞΑΙΡΕΣΕΙΣ και για όλες τις άλλες περιπτώσεις ισχύει το προηγούμενο. Το ότι δεν είμαι οπαδός γενικά των dual GPU λύσεων είναι γνωστό. Πάραυτα μια 295 έχει ακόμα αρκετά αποθέματα επιδόσεων που μέχρι και σήμερα δεν έχουν εξαντληθεί όπου φυσικά δουλεύει το SLi. Δεν διαφωνω αλλα υπαρχει και ενα Crysis στη μεση που εχει τις απαιτησεις του ετσι.....
Προτεινόμενες αναρτήσεις
Αρχειοθετημένο
Αυτό το θέμα έχει αρχειοθετηθεί και είναι κλειστό για περαιτέρω απαντήσεις.