Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.
Στις 31/8/2018 στις 8:54 ΠΜ, firepc είπε

Το θεμα ειναι φιλε, αυτοι που θα την παρουν, θα αλλαξουν μονιτορ να πανε σε 1080p60fps για να εχουν το RT? ή θα παρουν την καρτα για να εχουν καλυτερα αποτελεσματα στα 4Κ τους και τις ultrawide 3440x1440 τους?

Εγω νομιζω το δευτερο

Και τα δύο μπορούν να τα κάνουν ταυτόχρονα οπότε πιο το πρόβλημα. 

  • Απαντ. 1,5k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Συχνή συμμετοχή στο θέμα

Δημοσιευμένες Εικόνες

Δημοσ.
4 ώρες πριν, malakudi είπε

ΦΑΠΑ το 10-15%; Ότι να ΄ναι. Το ότι βγήκε η Ti μαζί με την 80αρα δείχνει ότι αυτή η γενιά βγήκε απλώς για να βγει. Έπρεπε να βγάλει κάτι ακριβό για να προωθήσει τις πωλήσεις pascal. Όσο δεν έβγαινε τίποτα ο κόσμος περίμενε. Τις έβγαλε ακριβά οπότε θα μπορέσει ο πέτσινος να πουλήσει το στοκ του. 

αν ηταν να βγαλει κατι ετσι απλα οπως το λες γιατι δεν εκανε ενα ωραιο ρεμπραντ, οπως παλια, και εκανε ολοκληρη αναβαθμιση της αρχιτεκτονικης? θα της στοιχιζε και πολυ λιγοτερο, ουτε r&d,  ουτε τιποτα, ενω θα κονομαγε και περισσοτερα.

  • Like 1
Δημοσ.

Μάπα το καρπούζι και σε επιδόσεις και σε τιμές.Αναμονη για τα 7nm.Οποιος θέλει τώρα κάρτα πάει σε pascal και αφήστε τους λεφταδες να θρέψουν την nvidia.

Δημοσ.

Το AI του DLSS "εκπαιδεύεται" με 64x super sampling. Αυτό σημαίνει ανάλυση 15360*8640 (aka 16K UHD), αν ο στόχος είναι το 1080p base rendering - που μάλλον αυτός θα είναι.

 

Δημοσ.
1 ώρα πριν, narta είπε

Αν ειναι φαπα το 15% τοτε ή δεν εχεις δει φαπες ή τα μετρα συγκρισης ειναι σε κλιμακα φοφικο

εσυ περιμενε την κλιμακα των 7νμ της amd για να αγορασεις. εκει που θα τις παρεις τζαμπε.:P  η κλιμακα που λες ειναι οτι με 600 πυρηνες λιγοτερους κανει πλακα στην 1080τι και αν βαλουμε και τους τενσορ μιλαμε για ενα 30% χαλαρα. τωρα εσυ μετρα με φοφικο.:lol:

ολοκληρη επανασταση στα γραφικα φερνει η nvidia. 

  • Confused 2
  • Sad 1
Δημοσ.
8 λεπτά πριν, james rod είπε

εσυ περιμενε την κλιμακα των 7νμ της amd για να αγορασεις. εκει που θα τις παρεις τζαμπε.:P  η κλιμακα που λες ειναι οτι με 600 πυρηνες λιγοτερους κανει πλακα στην 1080τι και αν βαλουμε και τους τενσορ μιλαμε για ενα 30% χαλαρα. τωρα εσυ μετρα με φοφικο.:lol:

ολοκληρη επανασταση στα γραφικα φερνει η nvidia. 

Μπεεεε...

  • Like 1
Δημοσ. (επεξεργασμένο)
11 λεπτά πριν, james rod είπε

εσυ περιμενε την κλιμακα των 7νμ της amd για να αγορασεις. εκει που θα τις παρεις τζαμπε.:P  η κλιμακα που λες ειναι οτι με 600 πυρηνες λιγοτερους κανει πλακα στην 1080τι και αν βαλουμε και τους τενσορ μιλαμε για ενα 30% χαλαρα. τωρα εσυ μετρα με φοφικο.:lol:

ολοκληρη επανασταση στα γραφικα φερνει η nvidia. 

Δεν με ενδιαφερει τι θα φερει η AMD. Απο την αλλη εχεις μπερδεψει το "κανω πλακα" με το "βαζω ακριβες τιμες μπας και ξεπουλησω pascal μη μου μεινουν". Βεβαια αυτο το αν βαλουμε τους tensor cores μιλαμε για ενα 30% χαλαρα, απο ατομο που ισως να μην καταλαβαινει χωρις μεταφραση τι λενε οι youtubers και τα ξενογλωσσα forum ειναι απλα για γελια. 😂

Οσο για την επανασταση, αν δεν στο ειπαν αναβληθηκε για τον Οκτωβριο-Νοεμβριο γιατι ακομα τα windows δεν υποστηριζουν DXR api 🤣

Επεξ/σία από narta
Δημοσ.
2 λεπτά πριν, james rod είπε

αν ηταν να βγαλει κατι ετσι απλα οπως το λες γιατι δεν εκανε ενα ωραιο ρεμπραντ, οπως παλια, και εκανε ολοκληρη αναβαθμιση της αρχιτεκτονικης? θα της στοιχιζε και πολυ λιγοτερο, ουτε r&d,  ουτε τιποτα, ενω θα κονομαγε και περισσοτερα.

Δεν είπα αυτό. Είπα πως επειδή ο κόσμος περίμενε νέα γενιά και δεν αγόραζε pascal, αναγκάστηκε να βγάλει τη νέα γενιά με μικρή αύξηση στην απόδοση + τα νέα πολύ καλά features, χρεώνοντάς την όμως πολύ ακριβά. Αν οι πωλήσεις pascal δεν είχαν "βαλτώσει" λόγω της αναμονής νέας γενιάς, πιθανόν να έβγαινε το turing κατ' ευθείαν στα 7nm.

Ποτέ στο παρελθόν δε πέρασε τόσος χρόνος για τόση μικρή αύξηση επιδόσεων. Η 1080 βγήκε σχεδόν πριν 2,5 χρόνια και η 2080 είναι 40-45% καλύτερή της. Σε 2,5 χρόνια σε άλλες γενιές είχαμε διπλασιασμό ισχύος. Πόσο ισχυρότερη ήταν η 1080 από την 980; https://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1080_review,13.html Μήπως 75-80%; Και η χρονική διαφορά μήπως ήταν 2 χρόνια και όχι 2,5;

Δημοσ.
3 ώρες πριν, Πέτρος είπε

Ναι, μόνο που δεν μου λες επί της ουσίας τίποτα.

Αν "όλη η επιπλέον λεπτομέρεια που έχουν οι high res εικόνες..." είναι κάπου αποθηκευμένη (μιλάμε για 4Κ εικόνες, επί Χ frames, επί...ανάλογα και τις εκάστοτε ρυθμίσεις του χρήστη), τί θα φτάνει τελικά στην κάρτα, για να κάνει αυτή το upscale?

Είτε θα έχουμε streaming της λεπτομέρειας (οπότε θα γελάμε), είτε τί?

Καταλαβαίνω πως από ένα σημείο και μετά (εκπαίδευση)  το "δίκτυο" δεν χρειάζεται να υπολογίζει από την αρχή αλλά θα πατάει σε έτοιμα Patterns και θα "κοιτάζει" τις μικροδιαφορές, αλλά ακριβώς αυτό ρωτάω:

Πώς θα τα βγάζει πέρα με τις (δισ/τρισ)εκατομμύρια πιθανές μικροδιαφορές του BFV όταν θα έχει αυτό μερικές εκατοντάδες χιλιάδες χρήστες ταυτόγχρονα (και ξαναγράφω, με διαφορετικές ingame ρυθμίσεις) και με 3-5-8 να χοροπηδάνε εν μέσω εκρήξεων στο οπτικό πεδίο μου, ενώ κι εγώ στριφογυρνάω συνεχώς για να επιζήσω?

Πάρε για παράδειγμα τον ανθρώπινο εγκέφαλο που ανακατασκευάζει όλόκληρους κόσμους με πολλή λεπτομέρεια μέσα στα όνειρα. Δεν υπάρχουν όλα αυτά αποθηκευμένα κάπου.

Ο εγκέφαλος έχει ήδη αναγνωρίσει από την καθημερινή ζωή δισεκατομμύρια και βάλε μοτίβα. Αυτά χρησιμοποιεί για να αναπλάσει καταστάσεις. Κάτι παρόμοιο κάνουν και τα νευρωνικά δίκτυα. Μαθαίνουν π.χ. τα μοτίβα από τους τοίχους, τους χαρακτήρες κτλ. του Battlefield V και όταν λείπει λεπτομέρεια την "φαντάζονται". Αρκετά καλύτερα απ'ότι το checkerboard rendering του ps4 pro, που ξεκινάει από το μηδέν και εφαρμόζει την ίδια υπόθεση-λογική γεμίσματος παντού.

Και αφού μιλάμε για βιντεοπαιχνίδια με πλαστή λεπτομέρεια τα πράγματα γίνονται πολύ ευκολότερα. Γιατί τα βιντεοπαιχνίδια πατάνε πολύ πάνω σε γεννήτριες μοτίβων, παρά σε πραγματικά τυχαίο αποτέλεσμα όπως στον αληθινό κόσμο. Είναι φρακταλικά γραφικά που όσο ανεβαίνεις ανάλυση βλέπεις τα ίδια και τα ίδια πράγματα να επαναλαμβάνονται σε μικρότερο επίεπδο. Άντε να τα πεις όμως αυτά στις σνομπαρίες με το 4K που νομίζουν ότι βλέπουν "περισσότερα".

Όλα αυτά τα μοτίβα είναι αποθηκευμένα μέσα στην ίδια τη δομή του δικτύου, μετά την εκπαίδευση του από το Saturn.  Το τελικό νευρωνικό δίκτυο φορτώνεται στην κάρτα σου και τέλος. Παίρνει 1080p και σε milisecond σου βγάζει το 4K.

  • Like 4
Δημοσ.
10 λεπτά πριν, Psycho_Warhead είπε

Είχαμε μετάβαση στα nm όμως τότε (28nm -> 16nm). Τώρα τα 12nm είναι τα 16 ουσιαστικά και για λόγους marketing λένε 12.

Κι από 780 σε 980 είχαμε 30% αύξηση σε λιγότερο από 1,5 χρόνο.

2 λεπτά πριν, pirmen56 είπε

Πάρε για παράδειγμα τον ανθρώπινο εγκέφαλο που ανακατασκευάζει όλόκληρους κόσμους με πολλή λεπτομέρεια μέσα στα όνειρα. Δεν υπάρχουν όλα αυτά αποθηκευμένα κάπου.

Ο εγκέφαλος έχει ήδη αναγνωρίσει από την καθημερινή ζωή δισεκατομμύρια και βάλε μοτίβα. Αυτά χρησιμοποιεί για να αναπλάσει καταστάσεις. Κάτι παρόμοιο κάνουν και τα νευρωνικά δίκτυα. Μαθαίνουν π.χ. τα μοτίβα από τους τοίχους, τους χαρακτήρες κτλ. του Battlefield V και όταν λείπει λεπτομέρεια την "φαντάζονται". Αρκετά καλύτερα απ'ότι το checkerboard rendering του ps4 pro, που ξεκινάει από το μηδέν και εφαρμόζει την ίδια υπόθεση-λογική γεμίσματος παντού.

Και αφού μιλάμε για βιντεοπαιχνίδια με πλαστή λεπτομέρεια τα πράγματα γίνονται πολύ ευκολότερα. Γιατί τα βιντεοπαιχνίδια πατάνε πολύ πάνω σε γεννήτριες μοτίβων, παρά σε πραγματικά τυχαίο αποτέλεσμα όπως στον αληθινό κόσμο. Είναι φρακταλικά γραφικά που όσο ανεβαίνεις ανάλυση βλέπεις τα ίδια και τα ίδια πράγματα να επαναλαμβάνονται σε μικρότερο επίεπδο. Άντε να τα πεις όμως αυτά στις σνομπαρίες με το 4K που νομίζουν ότι βλέπουν "περισσότερα".

Όλα αυτά τα μοτίβα είναι αποθηκευμένα μέσα στην ίδια τη δομή του δικτύου, μετά την εκπαίδευση του από το Saturn.  Το τελικό νευρωνικό δίκτυο φορτώνεται στην κάρτα σου και τέλος. Παίρνει 1080p και σε milisecond σου βγάζει το 4K.

Σωστά ολ' αυτά, με τη διαφορά ότι τα AI πολλές φορές έχουν "αστάθειες", παράγουν δηλαδή και λάθος αποτελέσματα, δεν είναι πάντα και 100% σωστά. Κι αν αυτό δεν είναι πρόβλημα με μία φωτογραφία, σε ένα παιχνίδι με πολλά frames per second ίσως να είναι. Θα το δούμε στην πράξη βέβαια.

  • Like 2
Δημοσ.
11 λεπτά πριν, malakudi είπε

Σωστά ολ' αυτά, με τη διαφορά ότι τα AI πολλές φορές έχουν "αστάθειες", παράγουν δηλαδή και λάθος αποτελέσματα, δεν είναι πάντα και 100% σωστά. Κι αν αυτό δεν είναι πρόβλημα με μία φωτογραφία, σε ένα παιχνίδι με πολλά frames per second ίσως να είναι. Θα το δούμε στην πράξη βέβαια.

Ναι. Σκεφτόμουν να το γράψω. Υπάρχει πιθανότητα να παράξουν glitches(μικρά βέβαια).  Οι μηχανικοί της Nvidia το ξέρουν σίγουρα. Να δούμε και πώς το αντιμετωπίζουν.

  • Like 2
Δημοσ. (επεξεργασμένο)
19 λεπτά πριν, pirmen56 είπε

Ναι. Σκεφτόμουν να το γράψω. Υπάρχει πιθανότητα να παράξουν glitches(μικρά βέβαια).  Οι μηχανικοί της Nvidia το ξέρουν σίγουρα. Να δούμε και πώς το αντιμετωπίζουν.

Επίσης από τις τεχνικές πληροφορίες που έδωσε η nVidia και αναμετέδωσαν πλέον όλα τα site, εκτός από το DLSS (που λογικά κάνει lower res rendering + βελτίωση) υπάρχει και το DLSS 2x που αν κατάλαβα καλά είναι native rendering + βελτίωση σε σχέση με το trained 16K UHD. Το οποίο κι αυτό θα είναι ενδιαφέρον να δούμε.

Ένα ωραίο video για τα AI της nvidia και επεξεργασία φωτογραφίας είναι κι αυτό: https://www.youtube.com/watch?v=gg0F5JjKmhA

edit: Κάπου διάβασα και μία άλλη άποψη για το DLSS, που σχετίζεται με το παραπάνω video. Ότι δηλαδή το DLSS είναι μεν rendering σε 4Κ, αλλά κατά τη διαδικασία του rendering αφήνει ένα ποσοστό από pixels κενά, τα οποία συμπληρώνει το AI.

Επεξ/σία από malakudi
Επισκέπτης
Αυτό το θέμα είναι πλέον κλειστό για περαιτέρω απαντήσεις.

  • Δημιουργία νέου...