pirmen56 Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 24 λεπτά πριν, MikeKata είπε Όχι. Επειδή πήρες χαμπάρι ότι είναι εντελώς αβάσιμο αυτό που πέταξες στο πρώτο σχόλιό σου, προσπαθείς να αλλάξεις αυτά που είπα μπας και καταλήξεις στο συμπέρασμα που θες. Να σου τα σπάσω σε μικρά, κατανοητά κομματάκια λοιπόν, μπας και τα καταλάβεις. 1. Το μπουζούκι είναι όργανο. Ο αστυνομικός είναι όργανο. Άρα ο αστυνομικός είναι μπουζούκι. Η AMD τα διαθέτει open source γιατί δεν έχει την οικονομική δυνατότητα ούτε το market share της Nvidia για να αναγκάσει devs να χρησιμοποιήσουν proprietary δικές της τεχνολογίες. Προκειμένου λοιπόν να τις διαδώσει όσο γίνεται, επιλέγει αυτή την οδό. Λέγεται ΣΤΡΑΤΗΓΙΚΗ. Εσύ το πήρες και το πήγες αλλού. Πουθενά δε σου είπε "open source=καλύτερο". Ο μόνος που μπήκε εδώ μέσα να συγκρίνει ασύγκριτα μεταξύ τους πράγματα, είσαι εσύ. Κοίτα να δεις μερικές από τις τεχνολογίες που βγάζουν ήδη άκυρο το επιχείρημά σου. Freesync, OpenGL (κυριολεκτικά ΠΑΝΤΟΥ), Vulcan (παρά το γεγονός ότι είναι ολόκληρες πλατφόρμες κι όχι "add-on" τα τελευταία 2), CryEngine (ολόκληρη μηχανή γραφικών είναι source available) και χίλιες δυο ακόμα. 2. Πάμε στα APIs να γίνει και εκεί debunk. Όνομα τακτικής: "cherry-picking". Μα γιατί θυμάσαι μόνο όσα σε συμφέρουν; Π.χ το DX10 ήταν οικτρή αποτυχία. Μέχρι και το DX11 που ήταν φουλ επιτυχημένο, τα πρώτα 2 χρόνια που βγήκε δεν ήταν το προτιμότερο API. Τα περισσότερα γράφονταν κυρίως για DX9 και δευτερευόντως (μερικές φορές) υποστήριζαν DX11. Ξεχνάς. Ξεχνάς. Ή μπορεί να μην ασχολούσουν πριν 15 χρόνια... 3. Πουθενά δεν είπα ότι είναι εύκολο να υλοποιηθεί. Μη διαστρεβλώνεις τα λόγια μου ξανά και ξανά. 4. Ποιος την προδίκαζε αλήθεια; Μήπως αυτοί που λέγαμε ότι το image upscaling (σαν το DLSS) είναι ένας τρόπος της Nvidia να παρακάμψει το γεγονός ότι "κόλλησε" σε εξέλιξη κλασσικού rendering και με το RT γονάτιζαν οι κάρτες της, οπότε κάπως έπρεπε να το πουλήσει; Ή μήπως ξέχασες τι αποτυχία ήταν το DLSS 1.0 τόσο τεχνικά, όσο και σαν adoption; Τώρα συμπεριέλεβε και τα εκατομμύρια που έχει ρίξει για promotion και κρίνε αν τα λιγότερα από 50 παιχνίδια σε 3 χρόνια είναι επιτυχία ή αποτυχία για την εταιρεία που έχει το μεγαλύτερο market share στις GPUs. 5. Και τώρα θα χρησιμοποιήσω τη δική σου "λογική". Συγκρίνεις "εκδόσεις" (π.χ DX12) με ολόκληρη τεχνολογία όσον αφορά το adoption. Θα αφήσω στην άκρη το γεγονός ότι είναι εντελώς άσχετα, δε δείχνεις να θες να το κατανοήσεις. Τι εννοώ. Γιατί δε μιλάς π.χ για Direct3D που είναι το σωστό εναντίον DLSS; Γιατί ξέρεις ότι εκεί σφίγγουν τα λουριά. Το σωστό θα ήταν να συνέκρινες μία έκδοση DX με μια έκδοση DLSS. Π.χ DX12 με DLSS 1.0. Ή DX11 ή DX9 με DLSS 2. Ποιο πάει άπατο εκεί; Α, ξέχασα, δε συμφέρουν τις παρωπίδες οι βελτιωμένες συγκρίσεις... 6. Είναι, κυριολεκτικά, το μοναδικό και το βασικότερο στο οποίο συμφωνούμε. Ανατρέπει όμως όλο το επιχείρημά σου. Γιατί, τεχνικά, η υλοποίηση του FSR (απ'ότι ξέρουμε ως τώρα) θα είναι ευκολότερη από του DLSS. Το DLSS απαιτεί να "εκπαιδεύσεις" πρώτα το AI για το παιχνίδι, σε αντίθεση με το FSR που χρησιμοποιεί δεδομένα από το ίδιο το frame. Και, εξ'όσων έχουν γίνει leak θα είναι ευκολότερο να εισαχθεί σαν τεχνολογία. https://www.hardwaretimes.com/amd-fsr-vs-nvidia-dlss-comparison-which-one-is-better/ Η λογική σου δηλαδή η ίδια αυτοακυρώνεται. Αν είναι "αρκετά καλό" (όχι το καλύτερο απαραίτητα) για να κάνει offset τα πλεονεκτήματα ευκολίας υλοποίησης, θα διαδοθεί. Αν όχι, θα πατώσει. Τόσο απλό. Εσένα γιατί σε καίει τόσο να βγει το DLSS μπροστά και όχι να έχεις καλό image upscaling σε όποια κάρτα τρέχεις και σε όποιο παιχνίδι τρέχεις; Καταναλωτής είσαι ή έχεις μετοχές στην Nvidia; Και εν τέλει, ο μόνος που προδίκασε εδώ μέσα για "αποτυχία" της μίας τεχνολογίας έναντι της άλλης, εσύ είσαι. Ή μήπως δε θυμάσαι πόσο οικτρό ήταν το DLSS 1.0; Γιατί φυσικά με αυτό θα το συγκρίνω, πρώτη γενιά είναι. (εδώ υπονοείς το FSR, μεταξύ μας είμαστε) Υ.Γ. Κατά της διάρκεια του σχολίου σου έχεις μπλέξει graphic APIs, upscaling, open source vs proprietary και χίλια δυο. Όπως είδες σου τα ξέμπλεξα κάπως. Να σου το πω και περιφραστικά: Το αν μια τεχνολογία θα έχει μεγάλη αποδοχή είναι πολυπαραγοντικό. Εξαρτάται από το αν είναι "αρκετά" καλή για να γίνει αποδεκτή, τη θέση αυτού που την προωθεί, την ευκολία υλοποίησής της, το marketing που έχει και τόσα άλλα. ΒΓΑΛΤΕ ΤΙΣ ΠΑΡΩΠΙΔΕΣ ΜΕΡΙΚΟΙ. To DX11 και 10 όντως είχαν μια καθυστέρηση γιατί το μεγάλο άλμα έγινε με το directx 9.0c. Δεν αλλάζει βέβαια την ουσία των όσων έγραψα. APIs που δεν προσέφεραν χειροπιαστές βελτιώσεις για τον τελικό πελάτη και είχαν μεγάλες δυσκολίες υλοποίησης από άπειρους devs(DX12 π.χ.) έτυχαν χλιαρής υποστήριξης. Το DX12 άρχισε να παίρνει και πάλι κεφάλι με τις νέες κονσόλες και το RT. Φυσικά και είναι πολυπαραγοντικό θέμα η αποδοχή μιας τεχνολογίας. Αρκεί να μην είναι πάτος σε κάποιον από αυτούς τους παράγοντες. Το FSR π.χ. απαιτεί δουλειά για την ενσωμάτωσή του σε per game ή έστω per engine basis και είναι τραγικό σε ποιότητα. Spatial upscaler που δεν βασίζεται έστω σε μεγάλα νευρωνικά δίκτυα αιχμής είναι καταδικασμένο σε αποτυχία. Είναι σαν να συζητάμε αν η TN τεχνολογία έχει περιθώρια να πιάσει OLED σε μαύρο και backlight bleeding. Αναφορά σε κείμενο Τώρα συμπεριέλεβε και τα εκατομμύρια που έχει ρίξει για promotion και κρίνε αν τα λιγότερα από 50 παιχνίδια σε 3 χρόνια είναι επιτυχία ή αποτυχία για την εταιρεία που έχει το μεγαλύτερο market share στις GPUs. Δεν είναι 3 χρόνια. Είναι κοντά 1,5 χρόνια από τότε που βγήκε το DLSS 2.0 και φτάσαμε τα 42 games με συνολικά 62, αν βάλεις τις ανακοινωμένες συνεργασίες. Το temporal upscaling δηλαδή. Αυτό που δεν θέλει training per game. Όχι το spatial upscaling(DLSS 1.0) που ξεχάστηκε ήδη όπως θα ξεχαστεί το blurry FSR. 1
MikeKata Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 4 λεπτά πριν, pirmen56 είπε Spatial upscaler που δεν βασίζεται έστω σε μεγάλα νευρωνικά δίκτυα αιχμής είναι καταδικασμένο σε αποτυχία. Είναι σαν να συζητάμε αν η TN τεχνολογία έχει περιθώρια να πιάσει OLED σε μαύρο και backlight bleeding. Θα το έβαζα στο μέτρο σύγκρισης LCD vs OLED. Δες τι adoption έχει το καθένα και τους λόγους πίσω από αυτό. Δεν είπα πουθενά ότι θα είναι καλύτερο. Ούτε η AMD ισχυρίστηκε κάτι τέτοιο. Είπα ότι αν τα θετικά (π.χ ευκολία implementation frame rate, να παίζει σε όλες τις κάρτες μέχρι και σε integrated κλπ) είναι αρκετά για να δικαιολογούν τη χαμηλότερη ποιότητα εικόνας, τότε ναι, θα πιάσει. Τόσο απλά. Είναι εντελώς διαφορετικές στρατηγικές από την κάθε εταιρεία γιατί ακριβώς ξεκινούν από διαφορετική βάση (market share και οικονομικά μεγέθη). Όπως π.χ το Freesync vs G-sync που πέταξα. Το ένα μπορείς να το έχεις παντού, ακόμα και σε φθηνές οθόνες, στο άλλο πληρώνεις premium και είναι ελάχιστα καλύτερο. Ε, και; Εσένα δε σε ωφελεί σαν καταναλωτή; Θες να είσαι δέσμιος μιας εταιρείας επειδή έχει τη μόνη τεχνολογία που κυκλοφορεί; Δε θες επιλογές; 1
mtifosi Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 7 λεπτά πριν, MikeKata είπε Θα το έβαζα στο μέτρο σύγκρισης LCD vs OLED. Δες τι adoption έχει το καθένα και τους λόγους πίσω από αυτό. Δεν είπα πουθενά ότι θα είναι καλύτερο. Ούτε η AMD ισχυρίστηκε κάτι τέτοιο. Είπα ότι αν τα θετικά (π.χ ευκολία implementation frame rate, να παίζει σε όλες τις κάρτες μέχρι και σε integrated κλπ) είναι αρκετά για να δικαιολογούν τη χαμηλότερη ποιότητα εικόνας, τότε ναι, θα πιάσει. Τόσο απλά. Είναι εντελώς διαφορετικές στρατηγικές από την κάθε εταιρεία γιατί ακριβώς ξεκινούν από διαφορετική βάση (market share και οικονομικά μεγέθη). Όπως π.χ το Freesync vs G-sync που πέταξα. Το ένα μπορείς να το έχεις παντού, ακόμα και σε φθηνές οθόνες, στο άλλο πληρώνεις premium και είναι ελάχιστα καλύτερο. Ε, και; Εσένα δε σε ωφελεί σαν καταναλωτή; Θες να είσαι δέσμιος μιας εταιρείας επειδή έχει τη μόνη τεχνολογία που κυκλοφορεί; Δε θες επιλογές; Το θεμα ειναι να υλοποιειται και σωστα. Καλο το freesync αλλα πολλα θεματα με flicker κλπ. Η nvidia εβγαλε το gsync compatible με δοκιμασμενα μονιτορ και ολοι οι μεγαλοι κατασκευαστες θελουν να εχουν το αυτοκολλητο. Εξαρταται λοιπον τι ζητας... 1
youraccount Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 2 ώρες πριν, pirmen56 είπε DX12 και Vulcan είναι open πρότυπα εκτός από APIs. Διαθέσιμα για κάθε κάρτα, για κάθε παιχνίδι, για κάθε developer, χωρίς όρους και προϋποθέσεις. Τα έσπρωχνε η MS και η AMD ο καθένας για δικούς του λόγους. Δες τι momentum είχαν σε support τα πρώτα χρόνια και δες που είναι σήμερα το DLSS. Αυτό λέω. Δηλαδή χωρίς dx12 θα παίζουν? Αν όχι, λες βλακείες.
MikeKata Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 2 ώρες πριν, pirmen56 είπε DX12 και Vulcan είναι open πρότυπα εκτός από APIs. Εντωμεταξύ, τώρα το είδα. Το DX12 ΔΕΝ είναι open standards. Είναι δωρεάν και proprietary. Έχει διαφορά για τους devs και το πως εξελίσσεται. Open standards είναι το OpenGL (ως επί το πλείστον). Το Vulcan είναι open source. 1
ThundeR_21 Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 με 3000 ευρώ η κάρτα....ας τα παίζουν μόνοι τους.....
ucode Δημοσ. 8 Ιουνίου 2021 Δημοσ. 8 Ιουνίου 2021 (επεξεργασμένο) το dlss δεν βοηθάει στο anticheat αρα τσάμπα κόπος.η Ubisoft ειναι μονο για graphics & UI αντε και κανα single player. το siege ειναι μπαλωμένο παιχίδι με πρόβλημα στο game engine του. Λυπαμαι αυτους που παιζουνε σε κονσόλες με ότι έχουν τραβηξει. Αλλα ναι ας χαρει λιγο και η nvidia οσο μπορει ακομα γιατι τους βλεπω να κανουν παρεα με την intel στα πισω καθισματα Επεξ/σία 8 Ιουνίου 2021 από ucode
pirmen56 Δημοσ. 9 Ιουνίου 2021 Δημοσ. 9 Ιουνίου 2021 1 ώρα πριν, ThundeR_21 είπε με 3000 ευρώ η κάρτα....ας τα παίζουν μόνοι τους..... Δεν είχαν 3.000€ οι Turing που παίζουν άνετα σε 1440p και σήμερα. Ούτε καν τα ~2.000€ που ζήταγε η 6900XT στο launch, πριν το mining. Tότε όμως έτρεχαν οι insomniacs να πάρουν 5700XT που ήταν αρκετά φτηνότερη. Μέσα από άρθρα σαν και αυτό καταλαβαίνουν σιγά σιγά γιατί ήταν φθηνότερη.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα