Προς το περιεχόμενο

AMD Arctic Islands, Greenland/Vega, Baffin-Ellesmere/Polaris


Προτεινόμενες αναρτήσεις

Δημοσ.

Πολύ απλά επιδόσεις, η GTX1070 είναι ήδη πιο αργή και πιστεύω ότι σε DX-12 θα χάσει ακόμα περισσότερο. 

 

 

Γενικά σε 1440P η VEGA 56 είναι 6% πιο γρήγορη από την GTX1070.

 

Δεν αμφισβητεί κανείς ότι η vega 56 είναι πιο γρήγορη. Θες 2% ή 6%; Κάπου εκεί.

1070 παίρνει με 450 ευρώ σήμερα Ελλάδα. Θα κάτσει σε 2-3 μήνες σε custom υλοποιήσεις κάτω από 500? Προσωπικά λόγω ζήτησης και διαθεσιμότητας δύσκολα το βλέπω κάτω από 550. Προς το παρών είναι στα 515-560.

 

https://geizhals.eu/?fs=vega%2056

 

Το γεγονός ότι μια πιο αργή κάρτα (η 1070) είναι πιο φτηνή δεν το βάζω στα αρνητικά. Πάντως με custom 56 στα 550 δεν θα την έλεγα VFM. Είναι αρκετά αυτονόητο αυτό νομίζω..  Εδώ είμαστε βέβαια να δούμε :)

 

btw πότε περιμένουμε custom?

  • Like 3
Δημοσ.
Μου φαίνεται δύσκολο να πιστέψω ότι δεν υπάρχει πτώση στην ποιότητα, μην ξεχνάμε ότι αυτά τα manuals τα γράφουν engineers/ programmers και όχι graphic designers/ 3D artists. Πολλές φορές υπάρχει διαφωνία στο τι είναι "good enough". Μακάρι να κάνω λάθος.

 

Καλά αυτό το color banding ειδικά στον ουρανό στα παιχνίδια είναι τραγικό απλά..Δεν έχω διαβάσει αν διορθώνεται με HDR.

Με το 10-bit color έχεις 1024 values ανά channel (R+G+B+ALPHA) αντί για 256, οπότε το banding μειώνεται δραστικά.

Δημοσ.

Μου φαίνεται δύσκολο να πιστέψω ότι δεν υπάρχει πτώση στην ποιότητα, μην ξεχνάμε ότι αυτά τα manuals τα γράφουν engineers/ programmers και όχι graphic designers/ 3D artists. Πολλές φορές υπάρχει διαφωνία στο τι είναι "good enough". Μακάρι να κάνω λάθος.

 

 

Με το 10-bit color έχεις 1024 values ανά channel (R+G+B+ALPHA) αντί για 256, οπότε το banding μειώνεται δραστικά.

Έχεις δίκαιο σε αυτά που λες, αλλά υπάρχουν μέρη που μπορούν να κόψουν accuracy. Αν το κάνουν σωστά, μόνο κέρδος θα έχουμε.

Δημοσ.

ρε παιδια θελω να ρωτησω κατι επειδη ειδα καποιες απαντησεις σχετικα με το freesync και θελω να εκφρασω μια απορια. Λετε οτι πανε για amd αυτη την στιγμη οσοι εχουν freesync monitor, αλλα αποτι βλεπω οι περισσοτερες καλες οθονες για 1080p με ευρος 150-200 ευρω έχουν freesync ετσι κι αλλιως. Προφανως ειναι ενα πολυ καλο feature αλλα αφου υπαρχει ετσι κι αλλιως (δεν το χεις χρυσοπληρωσει που λεμε) δεν θα μπορουσες να πας σε οποιαδηποτε καρτα ετσι κι αλλιως χωρις να χεις χασει κατι? Και αντιστοιχα αμα παας να παρεις monitor αφου το freesync υπαρχει δεν θα πρεπε να προτιμησεις μια τετοια οθονη ακομα και αν πας για nvidia? ισως τα πα λιγο μπερδεμενα.

Δημοσ.

ρε παιδια θελω να ρωτησω κατι επειδη ειδα καποιες απαντησεις σχετικα με το freesync και θελω να εκφρασω μια απορια. Λετε οτι πανε για amd αυτη την στιγμη οσοι εχουν freesync monitor, αλλα αποτι βλεπω οι περισσοτερες καλες οθονες για 1080p με ευρος 150-200 ευρω έχουν freesync ετσι κι αλλιως. Προφανως ειναι ενα πολυ καλο feature αλλα αφου υπαρχει ετσι κι αλλιως (δεν το χεις χρυσοπληρωσει που λεμε) δεν θα μπορουσες να πας σε οποιαδηποτε καρτα ετσι κι αλλιως χωρις να χεις χασει κατι? Και αντιστοιχα αμα παας να παρεις monitor αφου το freesync υπαρχει δεν θα πρεπε να προτιμησεις μια τετοια οθονη ακομα και αν πας για nvidia? ισως τα πα λιγο μπερδεμενα.

Πιστεύω δεν υπάρχει λόγος για gsync freesync με μία κάρτα που παίζει πάνω απο 60 fps,βάζεις vsync στα παιχνίδια και τα fps κλειδώνουν στα 60 fps και δεν υπάρχει ίχνος παραμόρφωσης στην εικόνα οπότε αυτόματα γίνεται άχρηστο το freesync.

Δημοσ.

Μόνο που με V-Sync το input lag πάει στον Θεό, ενώ με τα Freesync/G-Sync όχι. Επίσης το V-Sync σε κάποιες περιπτώσεις προκαλεί stuttering, οι άλλες λύσεις όχι.

  • Like 1
Δημοσ.

Προσωπικά αδυνατώ να παίξω πλέον shooter με vsync ανοιχτό και ιδιαίτερα fps. Με το fast sync προσωπικά δεν έχω δει καμιά βελτίωση σε tearing, οπότε gsync/freesync είναι μονόδρομος. 

Δημοσ.

Προσωπικά αδυνατώ να παίξω πλέον shooter με vsync ανοιχτό και ιδιαίτερα fps. Με το fast sync προσωπικά δεν έχω δει καμιά βελτίωση σε tearing, οπότε gsync/freesync είναι μονόδρομος. 

 

Με το fast sync βλεπεις διαφορα μονο οταν τα fps δεν πεφτουν κατω απο τα hz του εκαστοτε monitor...

Δημοσ.

Με το 10-bit color έχεις 1024 values ανά channel (R+G+B+ALPHA) αντί για 256, οπότε το banding μειώνεται δραστικά.

Γιατί, υποστηρίζουν 10-bit color οι gaming κάρτες; Απ'όσο ξέρω μόνο οι καθαρά επαγγελματικές (Quadro/FirePro) υποστηρίζουν 10-bit workflow. Εξαίρεση ίσως η Vega Frontier Edition που είναι κάπου ανάμεσα.

 

Για το banding που λές Psycho, είναι και θέμα οθόνης, αν η οθόνη είναι 8bit(που είναι οι περισσότερες) τότε μοιραία θα υπάρχει και σε κάποιο βαθμό color banding. Επίσης δεν ξέρω αν τα game engines υποστηρίζουν πραγματικό 10bit, μπορεί οι καινούριες ίσως, οι παλαιότερες δεν. H UE4 που είδα έχει tone-mapping πχ, για να βγάλει LDR χρώμα από HDR εικόνα, οπότε είναι κάπου ανάμεσα.

 

https://docs.unrealengine.com/latest/INT/Engine/Rendering/PostProcessEffects/ColorGrading/

Δημοσ.

Με το fast sync βλεπεις διαφορα μονο οταν τα fps δεν πεφτουν κατω απο τα hz του εκαστοτε monitor...

 

Μονίμως πάνω από το refresh rate ήμουν και πάλι είχα tearing. Το tearing έτσι κι αλλιώς εμφανίζεται κυρίως όταν είσαι πάνω από το refresh rate της οθόνης...

Δημοσ.

Γιατί, υποστηρίζουν 10-bit color οι gaming κάρτες; Απ'όσο ξέρω μόνο οι καθαρά επαγγελματικές (Quadro/FirePro) υποστηρίζουν 10-bit workflow. Εξαίρεση ίσως η Vega Frontier Edition που είναι κάπου ανάμεσα.

 

Για το banding που λές Psycho, είναι και θέμα οθόνης, αν η οθόνη είναι 8bit(που είναι οι περισσότερες) τότε μοιραία θα υπάρχει και σε κάποιο βαθμό color banding. Επίσης δεν ξέρω αν τα game engines υποστηρίζουν πραγματικό 10bit, μπορεί οι καινούριες ίσως, οι παλαιότερες δεν. H UE4 που είδα έχει tone-mapping πχ, για να βγάλει LDR χρώμα από HDR εικόνα, οπότε είναι κάπου ανάμεσα.

 

https://docs.unrealengine.com/latest/INT/Engine/Rendering/PostProcessEffects/ColorGrading/

 

NVIDIA Geforce graphics cards have offered 10-bit per color out to a full screen Direct X surface since the Geforce 200 series GPUs.  Due to the way most applications use traditional Windows API functions to create the application UI and viewport display, this method is not used for professional applications such as Adobe Premiere Pro and Adobe Photoshop.  These programs use OpenGL 10-bit per color buffers which require an NVIDIA Quadro GPU with DisplayPort connector.

 

http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus

 

Άσε που το HDR(10) δουλεύει μόνο με 10bit panel, οπότε τα παιχνίδια που έχουν HDR θα πρέπει να χρησιμοποιούν 10bit χρώμα.

Δημοσ.

 

Όλα αυτά προέκυψαν από το γεγονός ότι η AMD δεν είχε πόρους να παρουσιάσει διαφορετικούς πυρήνες για επαγγελματικές και consumer αγορές. Παρουσίασαν το vega το οποίο έπρεπε να καλύπτει αναγκαστικά και τις δύο. Άρα δώσαν έναν υπερμεγέθη πυρήνα, ο οποίος με τόσα transistors έχει αναγκαστικά και ανάλογη κατανάλωση. Από την άλλη όμως, φέρει τόσα χαρακτηριστικά, που δεν έχουν κανένα νόημα σε σημερινά παιχνίδια και μόνο πιάνουν χώρο και καταναλώνουν ρεύμα όταν το workload είναι κάποιο παιχνίδι.

 

Οπότε, προκειμένου να μην κάθονται οι επιπλέον δυνατότητες καταφεύγουν στην αντίληψη του "οτιδήποτε μπορεί να κάνει πράξεις, μπορεί να κάνει και υπολογισμούς γραφικών". Με την ίδια λογική του FP16, υπολογισμούς γραφικών μπορεί να κάνει και η CPU. Άρα αν σε ένα σύστημα υπάρχει μια 10πύρηνη CPU που βρίσκεται διαρκώς στο 30%, γιατί να μη μεταφερθεί εκεί workload από τη GPU και να πάρουμε και πχ. 3% επιδόσεων;

 

Φυσικά αυτά είναι αστεία πράγματα. Επειδή η AMD έπρεπε να βγάλει μια GPU για όλους, δε σημαίνει ότι κανείς θα κάτσει να χρησιμοποιήσει σε 3D engines τέτοια άχρηστα πράγματα, τα οποία δεν είναι και ιδιαίτερα αποδοτικά με βάση τον αριθμό των transistors που χρειάζονται. Γιατί υπό νορμάλ συνθήκες, αντί να χρησιμοποιήσει κανείς επιπλέον πύλες για να υλοποιήσει το double rate FP16, απλά θα πρόσθετε περισσότερες FP32 μονάδες.

 

Από την άλλη, αν στην AMD είχαν κάποιον τρόπο για profiling κατά το runtime και αυτόματο packing, ώστε η αλλαγή να μην είναι ορατή στο επίπεδο της μηχανής γραφικών, όλα αυτά θα είχαν νόημα. Όμως, είναι αδύνατο να ζητήσεις από κάποιον να βελτιστοποιήσει για κάτι που δεν είναι η σύνηθης πρακτική και καμία άλλη κάρτα γραφικών στην αγορά δεν το υποστηρίζει, μόνο και μόνο επειδή εσύ το έκανες έτσι.

 

Φυσικά το vega είναι υπέροχο τσιπάκι. Το frontier edition, ανταγωνίζεται ευθέως τα p100/v100 με πολύ μικρότερο κόστος. Με τέτοιο κόστος, πέρα πχ. από το training νευρωνικών δικτύών που για κάποιο λόγο διαφημίζεται υπερβολικά, έχει νόημα να το έχεις σε κάθε workstation, ως ένα πανίσχυρο επεξεργαστή για οτιδήποτε workload που μπορεί να παραλληλιστεί. Φυσικά όχι για παιχνίδια. ;)

Δημοσ.

http://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus

 

Άσε που το HDR(10) δουλεύει μόνο με 10bit panel, οπότε τα παιχνίδια που έχουν HDR θα πρέπει να χρησιμοποιούν 10bit χρώμα.

Ναι, το θέμα είναι αν το output είναι 10bit ή 8bit με tone mapping, δηλαδή σε μόνιτορ με 10/8+FRC θα βγάλει 10bit output η κάρτα;

Γενικά το θέμα 'χρώμα' είναι λίγο μπλεγμένο, γιατί θέλει όλο το pipeline να το υποστηρίζει για να δεις σωστό τελικό αποτέλεσμα.

 

Αυτό για τις Geforce δεν το ήξερα, αλλά αν ισχύει μόνο για DirectX, λογικό να λένε ότι δεν κάνουν (τα color critical προγράμματα προφανώς και δεν τρέχουν μέσω DirectX API).

 

Τέσπα, τέλος το o/t από μένα - αν κάποιος ξέρει κάτι για Vega56/64+10bit color ας το πει, γιατί μόνο στην Frontier Edition το είδα να αναφέρεται ρητά. https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/ - στο αντίστοιχο για τις Vega56/64 δεν λέει 10bit monitor support.

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...