deafman Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 βαρυ και του προηγουμενου, βαρυ και το comeback. intense stuff...
SkaL- Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 (επεξεργασμένο) Παιδιά αφήστε τις πολιτιστικές κόντρες στην άκρη, οκ το άρθρο είναι στα όρια του αστείου και έτσι πρέπει να το δούμε, δεν είναι ρατσιστικό. Μπορούμε να κάνουμε πλάκα με το διαφορετικό αλλά να είναι πλάκα και όχι να μειώνουμε και να προβάλουμε. Από την άλλη όλοι οι αντιρατσιστές προοδευτικοί κρατάτε και κανένα επίπεδο, οι προσωπικές επιθέσεις και οι χαρακτηρισμοί μοιάζουν περισσότερα κρύα και από τα ανέκδοτα με τους "μαύρους". Επεξ/σία 5 Σεπτεμβρίου 2021 από SkaL- 2 1
Επισκέπτης Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 4 λεπτά πριν, korakios είπε το τρίχωμα δε μπορεί να το αναγνωρίσει ? Απ' ότι φαίνεται όχι. Ότι γίνεται γίνεται αλλά θέλει περισσότερο training. Δεν είναι εκεί το θέμα όμως, αλλά στο ότι φυσικά και δεν υπάρχει ρατσιστική πρόθεση. Το AI αναγνωρίζει patterns, βάλε το χρώμα, βάλε ότι οι γορίλες μοιάζουν με ανθρώπους, βάλε τα μεγαλύτερα χείλη και τις κάπως πεπλατυσμένες μυτες που έχουν οι άνθρωποι αφρικανικής καταγωγής, ε εντάξει λογικό να δει ομοιότητες το ΑΙ.
korakios Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 1 λεπτό πριν, yiannis1991 είπε αλλά στο ότι φυσικά και δεν υπάρχει ρατσιστική πρόθεση εννοείται & αυτονόητο
sferatos2 Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 χααχαχαχαχαχαχαχαχαχχαχαχααχχα κλαμα 1 1
liberostelios Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 4 ώρες πριν, pirmen56 είπε Το deep learning AI αναγνωρίζει στατιστικές ομοιότητες μεταξύ φωτογραφιών. Αν αναγνωρίσει ομοιότητες μεταξύ μαύρων και γορίλων θα επιστρέψει το σχετικό αποτέλεσμα. Αφού οι γορίλες είναι ανθρωπόμορφοι και έχουν μαύρο χρώμα. Δεν είναι biased με κοινωνικές νόρμες για να λογοκρίνει αυτόματα και να μην επιστρέφει προσβλητικά για ανθρώπους αποτελέσματα. Το ακριβώς αντίθετο δηλαδή από αυτό που ισχυρίζονται όλοι οι επικριτές. Οι άνθρωποι είμαστε biased και τροποποιούμε τις απόψεις μας για να αρέσουμε στους άλλους, όχι τα AI συστήματα. Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά. 1 1 2
tritonas00 Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 21 ώρες πριν, trib είπε οι χρήστες που παρακολούθησαν πρόσφατα ένα βίντεο με μαύρους άνδρες που δημοσιεύτηκε από την Daily Mail είδαν μια ερώτηση που τους ρωτούσε αν θα ήθελαν να βλέπουν γενικά βίντεο με πιθήκους.
petasis Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 (επεξεργασμένο) 7 λεπτά πριν, liberostelios είπε Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά. Τι πάει να πει "προκαταλήψεις του δημιουργού του"; Την περίπτωση να είναι λάθος, να μην το σκέφτηκαν, κλπ. δεν υπάρχει; Δηλαδή στην facebook υπάρχει ένας "δημιουργός" (ποιος; ) και θεωρεί κάποιους ανθρώπους πιθήκους, και έβαλε αυτή την προκατάληψη στο σύστημα; Επεξ/σία 5 Σεπτεμβρίου 2021 από petasis
AtiX Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 1 λεπτό πριν, petasis είπε Τι πάει να πει "προκαταλήψεις του δημιουργού του"; Την περίπτωση να είναι λάθος, να μην το σκέφτηκαν, κλπ. δεν υπάρχει; Δηλαδή στην facebook υπάρχει ένας "δημιουργός" (ποιος; ) και θεωρεί κάποιους ανθρώπους πιθήκους, και έβαλε αυτή την προκατάληψη στο σύστημα; Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους??? 2
petasis Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 4 λεπτά πριν, AtiX είπε Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους??? Συγνώμη, αλλά το ΑΙ δεν περιλαμβάνει προγραμματισμό με την έννοια που εννοείς. Μιλάμε για αλγορίθμους που εκπαιδεύονται σε δεδομένα. Το πιο πιθανό είναι ότι οι αλγόριθμοι εκπαιδεύτηκαν σε δεδομένα από τις πλατφόρμες, και το ίντερνετ, τα οποία σε κάποιο βαθμό "καθαρίστηκαν". Οπότε είτε στα δεδομένα υπήρχαν άνθρωποι επισημειωμένοι σαν πίθηκοι που δεν φιλτραρίστηκαν σωστά (οπότε το ΑΙ απλά λειτουργεί σαν φακός που φέρνει στην επιφάνεια προβλήματα που υπάρχουν στην κοινωνία), είτε χρησιμοποιούν διαφορετικά μοντέλα για ανθρώπους και ζώα, και τους ξέφυγε αυτή η αλληλεπίδραση.
pirmen56 Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 27 λεπτά πριν, liberostelios είπε Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά. Οι δημιουργοί έκαναν ό,τι περνούσε από το χέρι τους για να μάθει το σύστημα τα ανθρώπινα χαρακτηριστικά. Αναφορά σε κείμενο Περιείχε πάνω από 40.000 βίντεο με 3.000 ηθοποιούς που μοιράστηκαν την ηλικία και το φύλο τους με την εταιρεία. Το Facebook προσέλαβε ακόμη και επαγγελματίες φωτογράφους για να φωτίσουν και να φωτογραφίσουν τους τόνους του δέρματος των ηθοποιών, έτσι ώστε τα συστήματα τεχνητής νοημοσύνης να μπορούν να μάθουν πώς μοιάζουν οι άνθρωποι διαφορετικών εθνικοτήτων υπό διάφορες συνθήκες φωτισμού. Το σύνολο δεδομένων σαφώς δεν ήταν αρκετό για να λύσει πλήρως την προκατάληψη της τεχνητής νοημοσύνης για το Facebook, αποδεικνύοντας περαιτέρω ότι η κοινότητα ΑΙ έχει ακόμη πολλή δουλειά μπροστά της. 20 λεπτά πριν, AtiX είπε Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους??? Το deep learning δεν προγραμματίζεται. Παίρνει tagged δεδομένα και μέσα από αυτά εξάγει δικά του συμπεράσματα για το ποια είναι τα χαρακτηριστικά των διαφόρων οντοτήτων(αμάξια, άνθρωποι, δέντρα κτλ.).
Nabuko Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 41 λεπτά πριν, liberostelios είπε Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Και που ξέρεις εσύ ότι ο δημιουργός του δεν είναι μαύρος? 4
AtiX Δημοσ. 5 Σεπτεμβρίου 2021 Δημοσ. 5 Σεπτεμβρίου 2021 27 λεπτά πριν, pirmen56 είπε Το deep learning δεν προγραμματίζεται. Παίρνει tagged δεδομένα και μέσα από αυτά εξάγει δικά του συμπεράσματα για το ποια είναι τα χαρακτηριστικά των διαφόρων οντοτήτων(αμάξια, άνθρωποι, δέντρα κτλ.). Αρα μπορεί να του έδωσαν και λάθος δεδομένα…? 39 λεπτά πριν, petasis είπε Συγνώμη, αλλά το ΑΙ δεν περιλαμβάνει προγραμματισμό με την έννοια που εννοείς. Μιλάμε για αλγορίθμους που εκπαιδεύονται σε δεδομένα. Το πιο πιθανό είναι ότι οι αλγόριθμοι εκπαιδεύτηκαν σε δεδομένα από τις πλατφόρμες, και το ίντερνετ, τα οποία σε κάποιο βαθμό "καθαρίστηκαν". Οπότε είτε στα δεδομένα υπήρχαν άνθρωποι επισημειωμένοι σαν πίθηκοι που δεν φιλτραρίστηκαν σωστά (οπότε το ΑΙ απλά λειτουργεί σαν φακός που φέρνει στην επιφάνεια προβλήματα που υπάρχουν στην κοινωνία), είτε χρησιμοποιούν διαφορετικά μοντέλα για ανθρώπους και ζώα, και τους ξέφυγε αυτή η αλληλεπίδραση. Άρα και αφού συμφωνούμε ότι υπάρχει ανθρώπινη επέμβαση, μένει να απαντήσουμε τι είναι πιο πιθανό σε αυτό το επίπεδο επαγγελματιών, το λάθος που να μην “μάθουν” την ΑΙ τι είναι μαύρος άνθρωπος και τι είναι πίθηκος ή να προβάλουν εσκεμμένα ή μη την πεποιθήσεις ότι είναι το ίδιο??? 5 1
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα