Andreas231 Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 We checked the impact of Windows 7’s scheduler by measuring CPU performance in Maxwell Render 1.7 and Cinebench 11.5. Both programs allow the user to define a specific number of threads (four, in our case). The 4M/8C label means that all eight cores are active, 4M/4C means that all four modules are active, with one core operating per module, and 2M/4C denotes a dual-module/quad-core configuration. Both of these tests show a 4M/4C arrangement outperforming a 4M/8C system by roughly eight percent when four threads are used. This suggests that scheduler inefficiencies could indeed be hurting Bulldozer’s general performance in workloads that can’t take advantage of all eight cores. There’s a 22% gap between running DIEP on four separate modules and running it on two modules. Refer up to our Cinebench and Maxwell Render tests, and you’ll see similar gaps; it takes the 2M/4C configuration 20% longer to render our benchmark scene in Maxwell, and it’s 16% slower than the 4M/4C configuration in Cinebench. This is precisely where AMD’s more aggressive Turbo Core is meant to kick in–but given Windows 7’s imperfect scheduling, performance still takes a hit in a 2M/4C configuration, even if Turbo Mode is on (we checked). One of the major questions surrounding Bulldozer has been how much of a penalty the chip’s SMT-style arrangement creates compared to a typical multi-core processor. Our results suggest that Bulldozer takes a 15-20 percent hit compared to a standard multi-core configuration. That’s actually pretty decent trade-off, particularly considering that this is the first Bulldozer-style CPU AMD has built. Unfortunately, the performance hit is significant enough to undermine AMD’s strategy of outflanking Intel by offering more CPU cores. Eight Bulldozer cores end up looking a lot like six Thuban cores, which is part of why AMD’s new chip struggles to pull away from its older cousin. Cache latencies are likely another reason.Bulldozer’s caches are significantly larger than Thuban’s, and a great deal slower as well. In theory, higher-latency caches allow the CPU to reach higher frequencies, but that doesn’t explain the entirety of the situation. Even at 4.6GHz — 40% faster than Thuban — Bulldozer’s L2 cache takes 40% longer to access. It’s impossible to estimate how much Bulldozer’s cache latencies are hurting the chip’s performance, but it’s likely significant. Slapping so much cache on the chip — 16MB of it — have also made it much more expensive to manufacture. Bulldozer is smaller than Thuban (315mm2 vs. 346mm2), but practically colossal compared to Sandy Bridge’s svelte 216mm2. Bulldozer’s caches may prove to be an advantage in some server workloads, but we suspect the desktop version of the chip could afford to go on a diet.A 20% performance penalty for an SMT design is good—but Bulldozer’s IPC reduction leaves the eight-core chip unable to match Thuban in certain workloads. Sandra’s multimedia tests can be configured to showcase Bulldozer’s improvements. FPU performance is remarkably similar to Thuban’s, despite the fact that BD has just four FPUs compared to Thuban’s six, while x16 integer performance is higher, even, than Sandy Bridge’s. Bulldozer’s improved SSE performance (above) and AVX support (below) may help the chip in some corner cases, but at least some AVX-enabled benchmarks, like the Kribi 3D tests available at inartis.com are actually slower on Bulldozer when AVX is used than they are otherwise. It’s not clear if this is because Bulldozer’s AVX implementation is narrower than Intel’s, or because the chip’s SSE capabilities make that instruction set a better fit. Similarly, Bulldozer includes support for multiple new CPU instructions, but AMD’s ability to convince developers to adopt them and recompile code for optimum performance is limited.Bulldozer may technically feature AVX, but its comparative performance isn’t very good, even in integer code. The i7-2600K has four FPUs — just like AMD’s chip — but it can handle 256-bit AVX instructions without splitting them into 2×128-bit chunks.
Heatspreader Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 We checked the impact of Windows 7’s scheduler by measuring CPU performance in Maxwell Render 1.7 and Cinebench 11.5. Both programs allow the user to define a specific number of threads (four, in our case). The 4M/8C label means that all eight cores are active, 4M/4C means that all four modules are active, with one core operating per module, and 2M/4C denotes a dual-module/quad-core configuration. Both of these tests show a 4M/4C arrangement outperforming a 4M/8C system by roughly eight percent when four threads are used. This suggests that scheduler inefficiencies could indeed be hurting Bulldozer’s general performance in workloads that can’t take advantage of all eight cores. There’s a 22% gap between running DIEP on four separate modules and running it on two modules. Refer up to our Cinebench and Maxwell Render tests, and you’ll see similar gaps; it takes the 2M/4C configuration 20% longer to render our benchmark scene in Maxwell, and it’s 16% slower than the 4M/4C configuration in Cinebench. This is precisely where AMD’s more aggressive Turbo Core is meant to kick in–but given Windows 7’s imperfect scheduling, performance still takes a hit in a 2M/4C configuration, even if Turbo Mode is on (we checked). One of the major questions surrounding Bulldozer has been how much of a penalty the chip’s SMT-style arrangement creates compared to a typical multi-core processor. Our results suggest that Bulldozer takes a 15-20 percent hit compared to a standard multi-core configuration. That’s actually pretty decent trade-off, particularly considering that this is the first Bulldozer-style CPU AMD has built. Unfortunately, the performance hit is significant enough to undermine AMD’s strategy of outflanking Intel by offering more CPU cores. Eight Bulldozer cores end up looking a lot like six Thuban cores, which is part of why AMD’s new chip struggles to pull away from its older cousin. Cache latencies are likely another reason. Bulldozer’s caches are significantly larger than Thuban’s, and a great deal slower as well. In theory, higher-latency caches allow the CPU to reach higher frequencies, but that doesn’t explain the entirety of the situation. Even at 4.6GHz — 40% faster than Thuban — Bulldozer’s L2 cache takes 40% longer to access. It’s impossible to estimate how much Bulldozer’s cache latencies are hurting the chip’s performance, but it’s likely significant. Slapping so much cache on the chip — 16MB of it — have also made it much more expensive to manufacture. Bulldozer is smaller than Thuban (315mm2 vs. 346mm2), but practically colossal compared to Sandy Bridge’s svelte 216mm2. Bulldozer’s caches may prove to be an advantage in some server workloads, but we suspect the desktop version of the chip could afford to go on a diet. A 20% performance penalty for an SMT design is good—but Bulldozer’s IPC reduction leaves the eight-core chip unable to match Thuban in certain workloads. Sandra’s multimedia tests can be configured to showcase Bulldozer’s improvements. FPU performance is remarkably similar to Thuban’s, despite the fact that BD has just four FPUs compared to Thuban’s six, while x16 integer performance is higher, even, than Sandy Bridge’s. Bulldozer’s improved SSE performance (above) and AVX support (below) may help the chip in some corner cases, but at least some AVX-enabled benchmarks, like the Kribi 3D tests available at inartis.com are actually slower on Bulldozer when AVX is used than they are otherwise. It’s not clear if this is because Bulldozer’s AVX implementation is narrower than Intel’s, or because the chip’s SSE capabilities make that instruction set a better fit. Similarly, Bulldozer includes support for multiple new CPU instructions, but AMD’s ability to convince developers to adopt them and recompile code for optimum performance is limited. Bulldozer may technically feature AVX, but its comparative performance isn’t very good, even in integer code. The i7-2600K has four FPUs — just like AMD’s chip — but it can handle 256-bit AVX instructions without splitting them into 2×128-bit chunks. Μην κουράζεσαι με εξηγήσεις στα αγγλικά. Τα νούμερα μιλάμε από μόνα τους. Έχω κάνει Edit το προηγούμενο Post περιμένοντας μια απάντηση που θα ήθελα να είναι θετική υπέρ των Intel γιατί θα βάλω τα γέλια.
~Palpatin~ Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 Αλήθεια, SLI x16 κάνει το Z170; Μόνο το Χ99 έκανε λόγω 40Lanes. Να κοιτάξω ή θα μου πει κάποιος από εσάς; Όχι πως έχει διαφορά το Χ8 απο το Χ16 στο sli πάνω απο 2% Αν και το Χ8 gen3 είναι γρηγορότερο απο X16 gen2 κατα ~20%. PCI Express 3.0 upgrades the encoding scheme to 128b/130b from the previous 8b/10b encoding, reducing the bandwidth overhead from 20% of PCI Express 2.0 to approximately 1.54% (= 2/130). https://en.wikipedia.org/wiki/PCI_Express
Heatspreader Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 Όχι πως έχει διαφορά το Χ8 απο το Χ16 στο sli πάνω απο 2% Αν και το Χ8 gen3 είναι γρηγορότερο απο X16 gen2 κατα ~20%. PCI Express 3.0 upgrades the encoding scheme to 128b/130b from the previous 8b/10b encoding, reducing the bandwidth overhead from 20% of PCI Express 2.0 to approximately 1.54% (= 2/130). https://en.wikipedia.org/wiki/PCI_Express Διαφορά δεν έχει το x8 με το x16, όπως δεν έχει και το 2.0 με το 3.0, αλλά νέα πλατφόρμα και να μην σου δίνει αυτή την επιλογή; 1) http://www.guru3d.com/articles_pages/pci_express_scaling_game_performance_analysis_review,1.html 2) https://www.pugetsystems.com/labs/articles/Impact-of-PCI-E-Speed-on-Gaming-Performance-518/ Επειδή κάτι διάβασα για native usb 3.0...
Andreas231 Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 Διαφορά δεν έχει το x8 με το x16, όπως δεν έχει και το 2.0 με το 3.0, αλλά νέα πλατφόρμα και να μην σου δίνει αυτή την επιλογή; 1) http://www.guru3d.com/articles_pages/pci_express_scaling_game_performance_analysis_review,1.html 2) https://www.pugetsystems.com/labs/articles/Impact-of-PCI-E-Speed-on-Gaming-Performance-518/ Επειδή κάτι διάβασα για native usb 3.0... και στα δυο γινεται αναλυση για το pci express οxι για usb 3 εκτος αν μου ξεφυγε κατι απο εκει και περα Βαζουν southbridge αυτο το chipset για να εχεις usb 3 αρα δεν εχει native 2 x Etron EJ168 chips: Up to 4 USB 3.0/2.0 ports (2 ports on the back panel, 2 ports available through the internal USB header) http://www.gigabyte.com/products/product-page.aspx?pid=4305#sp Παρεπιπτοντως το hyper transport bus ειναι αρχαιο που το ειχαν πριν 10 χρονια και αλλαζει στους zen για να αποκτησουν μεγαλυτερο bandwidth.
Heatspreader Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 και στα δυο γινεται αναλυση για το pci express οxι για usb 3 εκτος αν μου ξεφυγε κατι απο εκει και περα Βαζουν southbridge αυτο το chipset για να εχεις usb 3 αρα δεν εχει native 2 x Etron EJ168 chips: Up to 4 USB 3.0/2.0 ports (2 ports on the back panel, 2 ports available through the internal USB header) http://www.gigabyte.com/products/product-page.aspx?pid=4305#sp Παρεπιπτοντως το hyper transport bus ειναι αρχαιο που το ειχαν πριν 10 χρονια και αλλαζει στους zen για να αποκτησουν μεγαλυτερο bandwidth. Δεν έχουν τα AMD. Απλά μου έκανε εντύπωση που το Z170 δεν κάνει SLI x16.
~Palpatin~ Δημοσ. 25 Ιανουαρίου 2016 Δημοσ. 25 Ιανουαρίου 2016 Δεν έχουν τα AMD. Απλά μου έκανε εντύπωση που το Z170 δεν κάνει SLI x16. Γιατί πολύ απλά δεν χρειάζεται
adtakhs Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 και στα δυο γινεται αναλυση για το pci express οxι για usb 3 εκτος αν μου ξεφυγε κατι απο εκει και περα Βαζουν southbridge αυτο το chipset για να εχεις usb 3 αρα δεν εχει native 2 x Etron EJ168 chips: Up to 4 USB 3.0/2.0 ports (2 ports on the back panel, 2 ports available through the internal USB header) http://www.gigabyte.com/products/product-page.aspx?pid=4305#sp Παρεπιπτοντως το hyper transport bus ειναι αρχαιο που το ειχαν πριν 10 χρονια και αλλαζει στους zen για να αποκτησουν μεγαλυτερο bandwidth. Το hypertransport bus είναι τόσο μπροστά που μετά από 6 χρόνια η intel το αντέγραψε στην πλατφόρμα της. Μην αναφέρεσαι σε πράγματα που δεν γνωρίζεις γιατί εκτιθεσαι. Το hypertransport κατά καιρούς αναβαθμίζεται. Δεν είναι το ίδιο σε καμία των περιπτώσεων και η τελευταία έκδοση του έχει την ίδια ταχύτητα με το αντίστοιχο της intel (hypertransport 3.1 από το 990fx/x και μετά. Λογικά η amd θα το αναβαθμίσει ξανά μάλλον λόγω pci-e ssd. Σε ότι αφορά τα lanes, τα 2x 16 lanes pci-e v2.0 = 2x 8 pci-e v3.0. Από εκεί κι πέρα κάθε μια από τις δύο περιπτώσεις έχει τα θετικά και τα αρνητικά της. Στην πρώτη περίπτωση αν πας να βάλεις μια κάρτα pci-e v3 x4 lanes σε μια μητρική pci-e v2 τότε ή κάρτα θα τρέχει πιο αργά απ' ότι σε μια v3.0. Από την άλλη αν θελήσεις σε μια μητρική με μόλις 16 lanes να βάλεις μια κάρτα ακόμα θα πρέπει να βάλεις chip διπλασιασμού των lanes (plx, pex) που σημαίνει πως θα εισαγεις στο σύστημα latency. Σε αυτή την περίπτωση το 2x 16 v2.0 θα είναι καλύτερο από το 16 lanes v3 με plx.
Andreas231 Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 (επεξεργασμένο) Το hypertransport bus είναι τόσο μπροστά που μετά από 6 χρόνια η intel το αντέγραψε στην πλατφόρμα της. Μην αναφέρεσαι σε πράγματα που δεν γνωρίζεις γιατί εκτιθεσαι. Το hypertransport κατά καιρούς αναβαθμίζεται. Δεν είναι το ίδιο σε καμία των περιπτώσεων και η τελευταία έκδοση του έχει την ίδια ταχύτητα με το αντίστοιχο της intel (hypertransport 3.1 από το 990fx/x και μετά. Λογικά η amd θα το αναβαθμίσει ξανά μάλλον λόγω pci-e ssd. Σε ότι αφορά τα lanes, τα 2x 16 lanes pci-e v2.0 = 2x 8 pci-e v3.0. Από εκεί κι πέρα κάθε μια από τις δύο περιπτώσεις έχει τα θετικά και τα αρνητικά της. Στην πρώτη περίπτωση αν πας να βάλεις μια κάρτα pci-e v3 x4 lanes σε μια μητρική pci-e v2 τότε ή κάρτα θα τρέχει πιο αργά απ' ότι σε μια v3.0. Από την άλλη αν θελήσεις σε μια μητρική με μόλις 16 lanes να βάλεις μια κάρτα ακόμα θα πρέπει να βάλεις chip διπλασιασμού των lanes (plx, pex) που σημαίνει πως θα εισαγεις στο σύστημα latency. Σε αυτή την περίπτωση το 2x 16 v2.0 θα είναι καλύτερο από το 16 lanes v3 με plx. An Introduction to the Intel® QuickPath Interconnect An Introduction to the Intel® QuickPath Interconnect, January 2009 Executive Overview Intel® microprocessors advance their performance ascension through ongoing microarchitecture evolutions and multi-core proliferation. The processor interconnect has similarly evolved, thereby keeping pace with microprocessor needs through faster buses, quad-pumped buses, dual independent buses (DIB), dedicated high-speed interconnects (DHSI), and now the Intel® QuickPath Interconnect. The Intel QuickPath Interconnect is a highspeed, packetized, point-to-point interconnect used in Intel’s next generation of microprocessors first produced in the second half of 2008. The narrow high-speed links stitch together processors in a distributed shared memory-style platform architecture. Compared with today’s wide front-side buses, it offers much higher bandwidth with low latency. The Intel QuickPath Interconnect has an efficient architecture allowing more interconnect performance to be achieved in real systems. It has a snoop protocol optimized for low latency and high scalability, as well as packet and lane structures enabling quick completions of transactions. Reliability, availability, and serviceability features (RAS) are built into the architecture to meet the needs of even the most mission-critical servers. With this compelling mix of performance and features, it’s evident that the Intel QuickPath Interconnect provides the foundation for future generations of Intel microprocessors and that various vendors are designing innovative products around this interconnect technology. Τι αντεγραψε ? http://www.intel.com/content/www/us/en/io/quickpath-technology/quick-path-interconnect-introduction-paper.html Αν δεν ξερεις καλυτερα να μην εκτιθεσαι , αλλα εσυ εχεις τεχνολογια 2008 και θεωρεις οτι καλυτερη απο το 2016. The first generation of Intel’s Quick Path Interconnect dates back as early as 2002, and the majority of the work was done starting in 2004. QPI 1.0 was a massive step forward over the ancient front-side bus architecture that Intel plaforms used from 1995-2008, and finally caught up and exceeded AMD’s HyperTransport. The next generation Quick Path Interconnect 1.1 is largely an incremental improvement at the physical and logical layer, but a substantial change in terms of coherency protocol. The physical layer has been tuned with receiver equalization to achieve higher frequencies than the current 6.4GT/s, and future generations will adopt adaptive equalization for even higher performance. There is a new L0p power state that operates a QPI link at reduced bandwidth and is vastly more efficient for a low utilization workload than existing alternatives. For instance, a situation where 3 cores in an 8-core socket are active could only save power by shutting the links down entirely for a short period of time with QPI 1.0. But that would impose a significant latency penalty on the remaining traffic stream. The new L0p state can save power without any penalties and is a much better fit for light workloads that are continuously active. The major change is shifting exclusively to a home-snooped coherency protocol for QPI 1.1, whereas previously x86 systems were largely source snooped. This unifies the coherency approach for x86 and IPF, achieving better re-use of design and validation. More importantly though, QPI 1.1 sets the stage for x86 systems that can efficiently scale to larger systems, using a directory based protocol. It is quite likely that Intel or third party server chipset companies will adopt more sophisticated snoop filtering or directory techniques to scale up future systems using QPI 1.1. This would be particularly advantageous for servers with 4 sockets or more, where coherency bandwidth is one of the biggest factors in scaling. For example, SGI’s Altix has its own custom designed node controllers with a directory based coherency protocol that extends QPI over 256 sockets. Looking at AMD, they also use a snoop filter to reduce coherency traffic and improve latency on their Magny-Cours systems. In part, because Magny-Cours is two dice in a package and from a coherency standpoint, so a mainstream 4-socket system looks like an 8-socket server from a coherency stand point. The first proof of the benefits of QPI 1.1 will come with Sandy Bridge-EP, which is primarily designed for 2-socket servers, but can scale further. The 4-socket models will demonstrate how the coherency protocol improves scaling and give a preview of what to expect in larger systems based on Ivy Bridge-EX and other future generations. http://www.realworldtech.com/qpi-evolved/3/ HyperTransport version Year Max. HT frequency Max. link width Max. aggregate bandwidth (bi-directional) Max. bandwidth at 16-bit unidirectional (GB/s) Max. bandwidth at 32-bit unidirectional* (GB/s) 1.0 2001 800 MHz 32-bit 12.8 GB/s 3.2 6.4 1.1 2002 800 MHz 32-bit 12.8 GB/s 3.2 6.4 2.0 2004 1.4 GHz 32-bit 22.4 GB/s 5.6 11.2 3.0 2006 2.6 GHz 32-bit 41.6 GB/s 10.4 20.8 3.1 2008 3.2 GHz 32-bit 51.2 GB/s 12.8 25.6 Εσυ αγοραζε τεχνολογια προηγουμενης δεκαετιας που σταματησε to 2008 https://en.wikipedia.org/wiki/HyperTransport Επεξ/σία 26 Ιανουαρίου 2016 από Andreas231
Poleimechanos2 Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Και οι δύο πλατφόρμες έχουν υπέρ και κατά. Το θέμα με εσάς τα φανμπόις είναι ότι δεν λέτε τα κατά της αγαπημένης σας εταιρίας. Όπως για παράδειγμα τις θερμοκρασίες που ανεβάζουν οι αγαπημένοι σας Intel και πως και αυτοί θέλουν Aftermarket ψύξη και πολλά άλλα ακόμα... Έτσι ακριβώς όπως το λες είναι. Επιβεβαιώνω έχοντας προσωπική εμπειρία πάνω σε αυτό το θέμα. Σε 4770Κ που τρέξαμε intelburntest 2.54 (με avx) σε στοκ συχνότητα με την στοκ ψύκτρα, ο επεξεργαστής έφτασε στους 95 C τόσο γρήγορα που σταματήσαμε το τεστ άμεσα. Απλά θα έκανε throttle. Σε idle η θερμοκρασία ήταν γύρω στους 46. Δεν συζητάμε φυσικά καν για oc σε μια τέτοια κατάσταση (κρίμα το Κ σου ρε 4770Κ, είπαμε τότε). Περιμέναμε να έρθει από τις ΗΠΑ (από το κατάστημα FrozenCPU) το bracket 1150 για την πιστή μας ThermalRight Ultra 120 Extreme (TRUE) Black, ώστε να ξαναμπούμε σε φάση test. Όταν με το καλό κουμπώσαμε πάνω την πιστή μας TRUE, αρχίσαμε πάλι τα τεστ. Στα 1,222 vcore και καρφωμένο multiplier στο 40 (4GHz) χωρίς turbo, idle είχαμε 36 C, και σε full load intelburntest maximum test (multiple runs) φτάσαμε μέχρι 89-90 C, το οποίο φυσικά είναι way toot hot, αλλά, τουλάχιστον ξέραμε πλέον ότι η CPU θα είναι safe και stable για οποιαδήποτε άλλη χρήση και gaming χωρίς ποτέ να κάνει throttle. Οτιδήποτε πάνω από αυτό το vcore μας πήγαινε πολύ κοντά στους 100 C και σε καμία περίπτωση δεν το θέλαμε αυτό. Βέβαια η αλήθεια είναι ότι σε βαρύ gaming και οποιαδήποτε άλλη χρήση ποτέ δεν έχουμε δει θερμοκρασίες πάνω από 64 C, οπότε θα μπορούσε κάποιος να μου πει, ότι έχουμε ακόμα αρκετό oc headroom για τις περισσότερες χρήσεις, όμως εμείς θέλουμε να ξέρουμε ότι το pc μας θα είναι safe ΣΕ ΟΠΟΙΟΔΗΠΟΤΕ ΣΕΝΑΡΙΟ ΧΡΗΣΗΣ, κι ένα από αυτά είναι τα extreme stress tests. Στην πράξη απλά ανεβάσαμε το multiplier στο 41 (4,1 GHz), αφήνοντας όλα τα άλλα στα ίδια επίπεδα (πχ vcore) και το pc έκτοτε παίζει εκεί άψογα χωρίς κανένα πρόβλημα και χωρίς ποτέ να έχει ανεβάσει θερμοκρασία πάνω από 64 C. H απόδοση του επεξεργαστή είναι εξαιρετική, παρόλα αυτά όσον αφορά το oc, μας άφησε μια πικρή γεύση μπορώ να πω, ίσως γιατί περιμέναμε το overclockability των sandy bridge, έχοντας κλοκάρει 2600k στα 4,8Ghz χωρίς καμία ιδιαίτερη προσπάθεια. Τι να πω; Ίσως μόλις λήξει η εγγύηση του επεξεργαστή να μπούμε στην εξής διαδικασία:
_Theo_ Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Εγώ θα το πώ για άλλη μια φορά: προσωπικά αν οι νέοι FX είναι καλύτεροι απο τους τωρινούς i5 θα το θεωρήσω μεγάλη επιτυχία. Διότι η AMD θα έχει κυριαρχήσει στην χαμηλού και μεσαίου κόστους κατηγορία, όπου είναι διαδεδομένες στους πιο πολλούς χρήστες. Και όσο για αυτούς που κάθονται και συγκρίνουν FX-8xxx και i3, πολύ απλά " τρία πουλάκια κάθονταν". Ακόμα και για απλή χρήση γιατί καποιός να αγοράσει 2πύρηνο επιτραπέζιο Η/Υ εν έτει 2016;; Χωρίς ίχνος fanboyισμού θα προτιμούσα ένα FX-6350 (μιας και δεν ασχολούμαι με το OC) παρά έναν i3. Η AMD καθαρά για εμένα επικρατεί κατά κράτος στην χαμηλή κατηγορία ακόμα και τώρα. 1
Mult1C0r3Cpu Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Εγώ θα το πώ για άλλη μια φορά: προσωπικά αν οι νέοι FX είναι καλύτεροι απο τους τωρινούς i5 θα το θεωρήσω μεγάλη επιτυχία. Διότι η AMD θα έχει κυριαρχήσει στην χαμηλού και μεσαίου κόστους κατηγορία, όπου είναι διαδεδομένες στους πιο πολλούς χρήστες. Και όσο για αυτούς που κάθονται και συγκρίνουν FX-8xxx και i3, πολύ απλά " τρία πουλάκια κάθονταν". Ακόμα και για απλή χρήση γιατί καποιός να αγοράσει 2πύρηνο επιτραπέζιο Η/Υ εν έτει 2016;; Χωρίς ίχνος fanboyισμού θα προτιμούσα ένα FX-6350 (μιας και δεν ασχολούμαι με το OC) παρά έναν i3. Η AMD καθαρά για εμένα επικρατεί κατά κράτος στην χαμηλή κατηγορία ακόμα και τώρα. Μα στα λεφτά i3 skylake παίρνεις fx 8320, είναι ένα σκαλί πάνω από τον 6350 . 1
Poleimechanos2 Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Εγώ θα το πώ για άλλη μια φορά: προσωπικά αν οι νέοι FX είναι καλύτεροι απο τους τωρινούς i5 θα το θεωρήσω μεγάλη επιτυχία. Διότι η AMD θα έχει κυριαρχήσει στην χαμηλού και μεσαίου κόστους κατηγορία, όπου είναι διαδεδομένες στους πιο πολλούς χρήστες. Και όσο για αυτούς που κάθονται και συγκρίνουν FX-8xxx και i3, πολύ απλά " τρία πουλάκια κάθονταν". Ακόμα και για απλή χρήση γιατί καποιός να αγοράσει 2πύρηνο επιτραπέζιο Η/Υ εν έτει 2016;; Χωρίς ίχνος fanboyισμού θα προτιμούσα ένα FX-6350 (μιας και δεν ασχολούμαι με το OC) παρά έναν i3. Η AMD καθαρά για εμένα επικρατεί κατά κράτος στην χαμηλή κατηγορία ακόμα και τώρα. Έχω την αίσθηση ότι οι ΖΕΝ θα είναι αυτό που θα ήταν οι Phenom II, αν η AMD είχε συνεχίσει να τους εξελίσσει μέχρι σήμερα, με ό,τι θα συνεπαγόταν αυτό για το core IPC τους, συν το SMT, συν το die shrink, συν την αύξηση συχνότητας, συν την αύξηση της cache, συν τις όποιες μικροβελτιώσεις στην αρχιτεκτονική που θα είχαν προκύψει μέσα στα 6 χρόνια που μεσολάβησαν. Φαντάζομαι ότι κάτι τέτοιο θα ισοδυναμεί με κάτι παραπάνω από i5 skylake. Ο καιρός θα δείξει. Πάντως εγώ θα αγόραζα με κλειστά μάτια ακόμα και σήμερα πχ έναν υποθετικό Phenom II x12 με το oc potential των AMD FX 83XX, anyday... 2
Mult1C0r3Cpu Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Κάτσε πρώτα να βγουν οι zen και να μην έχουμε κάνα πατατράκ όπως με τις bullντόζες . Βέβαια το έσωσε η amd με τους piledriver, αλλά μακάρι να μην δούμε πάλι αυτό το σκηνικό, αλλά εύχομαι να ξαναδούμε εποχές phenom. Θρυλικός ο x6 1090t btw . 2
_Theo_ Δημοσ. 26 Ιανουαρίου 2016 Δημοσ. 26 Ιανουαρίου 2016 Έχω την αίσθηση ότι οι ΖΕΝ θα είναι αυτό που θα ήταν οι Phenom II, αν η AMD είχε συνεχίσει να τους εξελίσσει μέχρι σήμερα, με ό,τι θα συνεπαγόταν αυτό για το core IPC τους, συν το SMT, συν το die shrink, συν την αύξηση συχνότητας, συν την αύξηση της cache, συν τις όποιες μικροβελτιώσεις στην αρχιτεκτονική που θα είχαν προκύψει μέσα στα 6 χρόνια που μεσολάβησαν. Φαντάζομαι ότι κάτι τέτοιο θα ισοδυναμεί με κάτι παραπάνω από i5 skylake. Ο καιρός θα δείξει. Πάντως εγώ θα αγόραζα με κλειστά μάτια ακόμα και σήμερα πχ έναν υποθετικό Phenom II x12 με το oc potential των AMD FX 83XX, anyday... Wat???
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα