Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

  • Απαντ. 91
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ. (επεξεργασμένο)

Παιδιά αφήστε τις πολιτιστικές κόντρες στην άκρη, οκ το άρθρο είναι στα όρια του αστείου και έτσι πρέπει να το δούμε, δεν είναι ρατσιστικό. Μπορούμε να κάνουμε πλάκα με το διαφορετικό αλλά να είναι πλάκα και όχι να μειώνουμε και να προβάλουμε. Από την άλλη όλοι οι αντιρατσιστές προοδευτικοί κρατάτε και κανένα επίπεδο, οι προσωπικές επιθέσεις και οι χαρακτηρισμοί μοιάζουν περισσότερα κρύα και από τα ανέκδοτα με τους "μαύρους".

Επεξ/σία από SkaL-
  • Like 2
  • Thanks 1
Δημοσ.
4 λεπτά πριν, korakios είπε

το τρίχωμα δε μπορεί να το αναγνωρίσει ?

Απ' ότι φαίνεται όχι. Ότι γίνεται γίνεται αλλά θέλει περισσότερο training. Δεν είναι εκεί το θέμα όμως, αλλά στο ότι φυσικά και δεν υπάρχει ρατσιστική πρόθεση. Το AI αναγνωρίζει patterns, βάλε το χρώμα, βάλε ότι οι γορίλες μοιάζουν με ανθρώπους, βάλε τα μεγαλύτερα χείλη και τις κάπως πεπλατυσμένες μυτες που έχουν οι άνθρωποι αφρικανικής καταγωγής, ε εντάξει λογικό να δει ομοιότητες το ΑΙ.

Δημοσ.
4 ώρες πριν, pirmen56 είπε

Το deep learning AI αναγνωρίζει στατιστικές ομοιότητες μεταξύ φωτογραφιών. Αν αναγνωρίσει ομοιότητες μεταξύ μαύρων και γορίλων θα επιστρέψει το σχετικό αποτέλεσμα. Αφού οι γορίλες είναι ανθρωπόμορφοι και έχουν μαύρο χρώμα.

Δεν είναι biased με κοινωνικές νόρμες για να λογοκρίνει αυτόματα και να μην επιστρέφει προσβλητικά για ανθρώπους αποτελέσματα. Το ακριβώς αντίθετο δηλαδή από αυτό που ισχυρίζονται όλοι οι επικριτές. Οι άνθρωποι είμαστε biased και τροποποιούμε τις απόψεις μας για να αρέσουμε στους άλλους, όχι τα AI συστήματα.

Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά.

  • Like 1
  • Confused 1
  • Sad 2
Δημοσ.
21 ώρες πριν, trib είπε

οι χρήστες που παρακολούθησαν πρόσφατα ένα βίντεο με μαύρους άνδρες που δημοσιεύτηκε από την Daily Mail είδαν μια ερώτηση που τους ρωτούσε αν θα ήθελαν να βλέπουν γενικά βίντεο με πιθήκους.

:lol::lol::lol::lol::lol:

Δημοσ. (επεξεργασμένο)
7 λεπτά πριν, liberostelios είπε

Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά.

Τι πάει να πει "προκαταλήψεις του δημιουργού του"; Την περίπτωση να είναι λάθος, να μην το σκέφτηκαν, κλπ. δεν υπάρχει; Δηλαδή στην facebook υπάρχει ένας "δημιουργός" (ποιος; ) και θεωρεί κάποιους ανθρώπους πιθήκους, και έβαλε αυτή την προκατάληψη στο σύστημα;

Επεξ/σία από petasis
Δημοσ.
1 λεπτό πριν, petasis είπε

Τι πάει να πει "προκαταλήψεις του δημιουργού του"; Την περίπτωση να είναι λάθος, να μην το σκέφτηκαν, κλπ. δεν υπάρχει; Δηλαδή στην facebook υπάρχει ένας "δημιουργός" (ποιος; ) και θεωρεί κάποιους ανθρώπους πιθήκους, και έβαλε αυτή την προκατάληψη στο σύστημα;

Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους???

  • Confused 2
Δημοσ.
4 λεπτά πριν, AtiX είπε

Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους???

Συγνώμη, αλλά το ΑΙ δεν περιλαμβάνει προγραμματισμό με την έννοια που εννοείς. Μιλάμε για αλγορίθμους που εκπαιδεύονται σε δεδομένα.

Το πιο πιθανό είναι ότι οι αλγόριθμοι εκπαιδεύτηκαν σε δεδομένα από τις πλατφόρμες, και το ίντερνετ, τα οποία σε κάποιο βαθμό "καθαρίστηκαν". Οπότε είτε στα δεδομένα υπήρχαν άνθρωποι επισημειωμένοι σαν πίθηκοι που δεν φιλτραρίστηκαν σωστά (οπότε το ΑΙ απλά λειτουργεί σαν φακός που φέρνει στην επιφάνεια προβλήματα που υπάρχουν στην κοινωνία), είτε χρησιμοποιούν διαφορετικά μοντέλα για ανθρώπους και ζώα, και τους ξέφυγε αυτή η αλληλεπίδραση.

Δημοσ.
27 λεπτά πριν, liberostelios είπε

Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά.

Οι δημιουργοί έκαναν ό,τι περνούσε από το χέρι τους για να μάθει το σύστημα τα ανθρώπινα χαρακτηριστικά.

Αναφορά σε κείμενο

Περιείχε πάνω από 40.000 βίντεο με 3.000 ηθοποιούς που μοιράστηκαν την ηλικία και το φύλο τους με την εταιρεία. Το Facebook προσέλαβε ακόμη και επαγγελματίες φωτογράφους για να φωτίσουν και να φωτογραφίσουν τους τόνους του δέρματος των ηθοποιών, έτσι ώστε τα συστήματα τεχνητής νοημοσύνης να μπορούν να μάθουν πώς μοιάζουν οι άνθρωποι διαφορετικών εθνικοτήτων υπό διάφορες συνθήκες φωτισμού. Το σύνολο δεδομένων σαφώς δεν ήταν αρκετό για να λύσει πλήρως την προκατάληψη της τεχνητής νοημοσύνης για το Facebook, αποδεικνύοντας περαιτέρω ότι η κοινότητα ΑΙ έχει ακόμη πολλή δουλειά μπροστά της.

 

20 λεπτά πριν, AtiX είπε

Δηλαδη τι είναι πιο πιθανό, να μην ξέρουν να προγραμματίζουν ή να την προγραμμάτισαν σύμφωνα με τα πιστεύω τους???

Το deep learning δεν προγραμματίζεται. Παίρνει tagged δεδομένα και μέσα από αυτά εξάγει δικά του συμπεράσματα για το ποια είναι τα χαρακτηριστικά των διαφόρων οντοτήτων(αμάξια, άνθρωποι, δέντρα κτλ.).

Δημοσ.
41 λεπτά πριν, liberostelios είπε

Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του.

Και που ξέρεις εσύ ότι ο δημιουργός του δεν είναι μαύρος? 

  • Like 4
Δημοσ.
27 λεπτά πριν, pirmen56 είπε

Το deep learning δεν προγραμματίζεται. Παίρνει tagged δεδομένα και μέσα από αυτά εξάγει δικά του συμπεράσματα για το ποια είναι τα χαρακτηριστικά των διαφόρων οντοτήτων(αμάξια, άνθρωποι, δέντρα κτλ.).

Αρα μπορεί να του έδωσαν και λάθος δεδομένα…?

39 λεπτά πριν, petasis είπε

Συγνώμη, αλλά το ΑΙ δεν περιλαμβάνει προγραμματισμό με την έννοια που εννοείς. Μιλάμε για αλγορίθμους που εκπαιδεύονται σε δεδομένα.

Το πιο πιθανό είναι ότι οι αλγόριθμοι εκπαιδεύτηκαν σε δεδομένα από τις πλατφόρμες, και το ίντερνετ, τα οποία σε κάποιο βαθμό "καθαρίστηκαν". Οπότε είτε στα δεδομένα υπήρχαν άνθρωποι επισημειωμένοι σαν πίθηκοι που δεν φιλτραρίστηκαν σωστά (οπότε το ΑΙ απλά λειτουργεί σαν φακός που φέρνει στην επιφάνεια προβλήματα που υπάρχουν στην κοινωνία), είτε χρησιμοποιούν διαφορετικά μοντέλα για ανθρώπους και ζώα, και τους ξέφυγε αυτή η αλληλεπίδραση.

Άρα και αφού συμφωνούμε ότι υπάρχει ανθρώπινη επέμβαση, μένει να απαντήσουμε τι είναι πιο πιθανό σε αυτό το επίπεδο επαγγελματιών, το λάθος που να μην “μάθουν” την ΑΙ τι είναι μαύρος άνθρωπος και τι είναι πίθηκος ή να προβάλουν εσκεμμένα ή μη την πεποιθήσεις ότι είναι το ίδιο??? 

  • Confused 5
  • Sad 1

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...