Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.
3 λεπτά πριν, Herald είπε

Δηλαδή πιστεύεις ότι είναι ρατσιστές με το τσιουάουα μου? :P 

Δεν ξέρω ρωτά το… 😅

  • Απαντ. 91
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ.

Πάντως και οι άνθρωποι, και οι λευκοί, είναι πρωτεύοντα, όπως ακριβώς και οι πίθηκοι.

Δημοσ.
4 λεπτά πριν, AtiX είπε

Σοβαρά??? Να το κλείσουν τότε αφού δεν μπορεί να ξεχωρίσει έναν μαύρο άνθρωπο από έναν πιθηκοειδές…

μου κάνει εντύπωση που δικαιολογείτε μια μηχανή που έχει εκπαιδευτεί να ξεχωρίζει brands για να σου πετάει μετά διαφημίσεις και δεν μπορεί να ξεχωρίσει έναν άνθρωπο από έναν γορίλα…

Για να είμαι ειλικρινείς, εμένα μου κάνει εντύπωση που θεωρείς την μηχανή ρατσιστική (ή αυτόν που την έφτιαξε) σύμφωνα με τα δικά σου κριτήρια. Αν επρόκειτο για χελώνες ή σκύλους δεν θα υπήρχε εξέγερση.

Θέλω να καταλήξω, μην βλέπεις / βλέπεται παντού ρατσισμό. 

  • Like 1
Δημοσ.
2 λεπτά πριν, yiannis1991 είπε

Χρειάζεται επιπλέον training, δεν δικαιολογώ τη μηχανή, απλώς εξηγώ πως λειτουργεί.

Μα ξέρουμε πως λειτουργεί…

και οι ίδιοι το ξέρανε όπως ξέρανε και τα πιθανά λάθη που θα έκανε…

γιατί έναν… ΕΝΑΣ, δεν ασχολήθηκε για να τα διορθώσει σηζηταμε…

Μόλις τώρα, Herald είπε

Για να είμαι ειλικρινείς, εμένα μου κάνει εντύπωση που θεωρείς την μηχανή ρατσιστική (ή αυτόν που την έφτιαξε) σύμφωνα με τα δικά σου κριτήρια. Αν επρόκειτο για χελώνες ή σκύλους δεν θα υπήρχε εξέγερση.

Θέλω να καταλήξω, μην βλέπεις / βλέπεται παντού ρατσισμό. 

Δεν θεωρώ καμία μηχανή ρατσιστική, μην βάζεις λόγια στο στόμα μου… δες την παραπάνω απάντηση μου…

Δημοσ.
Μόλις τώρα, AtiX είπε

Μα ξέρουμε πως λειτουργεί…

και οι ίδιοι το ξέρανε όπως ξέρανε και τα πιθανά λάθη που θα έκανε…

γιατί έναν… ΕΝΑΣ, δεν ασχολήθηκε για να τα διορθώσει σηζηταμε…

Γιατί έτσι γίνεται το training, δεν είναι θέμα λάθους και διόρθωσης. Απλά θέλει περισσότερο training, αυτό. Φυσικά και δεν είναι ωραίο αυτό που συνέβη αλλά δεν υπήρχε σκοπιμότητα. 

Δημοσ.
2 λεπτά πριν, AtiX είπε

Δεν θεωρώ καμία μηχανή ρατσιστική, μην βάζεις λόγια στο στόμα μου… δες την παραπάνω απάντηση μου…

Eννοώ αυτόν που την προγραμμάτισε ρε μαν, το έβαλα και σε παρένθεση.

Δημοσ. (επεξεργασμένο)
6 λεπτά πριν, yiannis1991 είπε

Πάντως και οι άνθρωποι, και οι λευκοί, είναι πρωτεύοντα, όπως ακριβώς και οι πίθηκοι.

Δεν διαφωνεί κανείς με αυτό, ξανα λέω, αν σε βίντεο με λευκούς ανθρώπους έκανε το ίδιο όλα θα ήταν μια χαρά, δεν το κάνει όμως…

2 λεπτά πριν, Herald είπε

Eννοώ αυτόν που την προγραμμάτισε ρε μαν, το έβαλα και σε παρένθεση.

 

3 λεπτά πριν, yiannis1991 είπε

Γιατί έτσι γίνεται το training, δεν είναι θέμα λάθους και διόρθωσης. Απλά θέλει περισσότερο training, αυτό. Φυσικά και δεν είναι ωραίο αυτό που συνέβη αλλά δεν υπήρχε σκοπιμότητα. 

Βρε παιδιά τώρα σοβαρά, έχουμε παρόμοια περιστατικά και πάντα παρουσιάζεται το ίδιο πρόβλημα… θα μείνουνε με το έτσι δουλεύει ή θα το φτιάξουμε???

Επεξ/σία από AtiX
  • Confused 1
Δημοσ.
3 λεπτά πριν, AtiX είπε

Δεν διαφωνεί κανείς με αυτό, ξανα λέω, αν σε βίντεο με λευκούς ανθρώπους έκανε το ίδιο όλα θα ήταν μια χαρά, δεν το κάνει όμως…

Ε αφού οι πίθηκοι έχουν μαύρο τρίχωμα!! Τι να κάνουμε τώρα. Υπάρχουν κάτι μπαμπουίνοι του χιονιού αν δεν κάνω λάθος που είναι λευκοί. Ε εκεί μπορεί να τους μπερδέψει με λευκούς ανθρώπους αν και πιο δύσκολο αυτό καθώς οι μπαμπουίνοι δεν μοιάζουν και τόσο με ανθρώπους όσο οι χιμπατζήδες ή οι γορίλες.

Δημοσ.
4 λεπτά πριν, AtiX είπε

Δεν διαφωνεί κανείς με αυτό, ξανα λέω, αν σε βίντεο με λευκούς ανθρώπους έκανε το ίδιο όλα θα ήταν μια χαρά, δεν το κάνει όμως…

Mα το video που συζητάμε έχει λευκούς. Βασικά, το μεγαλύτερο μέρος του video έχει έναν λευκό τύπο να μιλάει στο τηλέφωνο και στη συνέχεια λευκούς αστυνομικούς. Έγχρωμος τύπος εμφανίζετια μόνο στο τέλος του video. 
 

  • Thanks 1
Δημοσ. (επεξεργασμένο)

Πρεπει καποιοι παντα να δημιουργουν καταστασεις. Αυτο που δεν καταλαβαινω ειναι γιατι καποιοι ενοχληθηκαν. Οι μαυροι οπως και οι ασπροι ειναι ανθρωποι και ουδεμια σχεση εχουν με πιθηκους περα απο το γεγονος πως ειναι πρωτευοντα. Η ενοχληση απο ευαισθητους κορεκτακιδες εχει ακριβως το αντιθετο αποτελεσμα απο αυτο που ταχαμου θιγει. Συνηθως ποτε μας ενοχλει κατι αραγε; Δεν θα πω τιποτα περισσοτερο. Αν δηλαδη μπερδευε ασπρους με ψυγεια; 

Επεξ/σία από vastegial_74
  • Like 4
  • Thanks 1
Δημοσ.
2 λεπτά πριν, Herald είπε

Mα το video που συζητάμε έχει λευκούς. Βασικά, το μεγαλύτερο μέρος του video έχει έναν λευκό τύπο να μιλάει στο τηλέφωνο και στη συνέχεια λευκούς αστυνομικούς. Έγχρωμος τύπος εμφανίζετια μόνο στο τέλος του video. 
 

Το βίντεο δεν το έχω δει, έχεις κάποιο link?

Δημοσ.

Γενικά: 

Το συγκεκριμένο πρόβλημα που έγινε με το μοντέλο του Facebook, το πιο πιθανό είναι ότι δεν είναι γενικά του "ΑΙ". Όντως, υπάρχει ένα θέμα με το τι μαθαίνουν τα διάφορα μοντέλα. Για παράδειγμα, κατά τις πρώτες χρήσεις μοντέλων αναγνώρισης προσώπου για law reinforcement tasks, είχε παρατηρηθεί ότι τα έγχρωμα πρόσωπα είχαν συνδεθεί με εγκληματικές πράξεις, ενώ ένα λευκό πρόσωπο όχι. 

Το από πάνω είναι όμως ένα πρόβλημα των δεδομένων που χρησιμοποιούνται για την εκπαίδευση του συστήματος. Δηλαδή, εάν το σύστημα βλέπει συνέχεια φωτογραφίες έγχρωμων ανθρώπων, για τις οποίες φωτογραφίες θα πρέπει να μάθει ότι είναι πολύ πιθανό να εικονίζουν έναν εγκληματία, τότε είναι πολύ προσοδοφόρο για το σύστημα να χρησιμοποιήσει το χρώμα του προσώπου ως ένα χαρακτηριστικό που θα διαχωρίσει εγκληματίες και μη. Αυτό το πρόβλημα δεν είναι θέμα του ΑΙ αλλά του συστημικού ρατσισμού που αντικατοπτρίζεται στα δεδομένα που χρησιμοποιήθηκαν. 

Το συγκεκριμένο πρόβλημα όμως που αναφέρεται εδώ, το πιο πιθανό είναι πως δεν είναι θέμα ρατσισμού αλλά είναι μία απρόσμενη συνέπεια ενός νέου τρόπου εκπαίδευσης. Κατά αυτόν τον νέο τρόπο, είναι πολύ λογικό να χρησιμοποιηθεί ένα τόσο χαμηλού επιπέδου χαρακτηριστικό (όπως το χρώμα των pixels) για την κατηγοριοποίηση εικόνων. 

 

Για συγκεκριμένες απαντήσεις: 
 

1 ώρα πριν, spectaculator είπε

Γνωρίζεις πως "εκπαιδεύεις" μια ΑΙ; Την ταϊζεις με εικόνες ή λέξεις, ή γενικότερα σειρές μέσα στις οποίες θέλει να εντοπίζει μοτίβα και στην "αναγνώριση" της παρέχεις τα στοιχεία εκείνα που διαφοροποιούν το αποτέλεσμα Α από το Β. Οι μπαγλαμάδες του FB προφανώς αντέγραψαν ή εφάρμοσαν τη βάση μιας άλλης ΑΙ χωρίς να κάνουν τίποτα το παραπάνω. Αποδείχθηκε και στο παρελθόν με αστοχίες αναγνώρισης του περιεχομένου εικόνας και μάλιστα κάπου είχαν γίνει και εικασίες για το ποια ΑΙ χρησιμοποίησε (δεν ανέπτυξε τίποτα).

Εδώ υπάρχουν ΑΙ που αναγνωρίζουν πρόσωπα, αυτή του FB δεν μπορεί να ξεχωρίσει γορίλα από άνθρωπο...

Δεν μίλησα για biased αλγόριθμο, ήταν δικό σου συμπέρασμα.

Δεν θα μιλούσα με τόσο κακά λόγια για τους ερευνητές του FAIR. Το "μπαγλαμάδες" δείχνει άγνοια για το τι έχει προσφέρει το FAIR ως ίδρυμα. 

Από εκεί και πέρα, παρακολουθώντας την διεθνή ερευνητική σκηνή από αρκετά κοντά, μπορώ να εικάσω ότι το λάθος έγινε λόγω του νέου paradigm που χρησιμοποιείται, και διαφέρει από το παραδοσιακό supervised learning. Για αυτό και το χρώμα των pixels έγινε κυρίαρχο χαρακτηριτικό για την ανίχνευση κάποιων συγκεκριμένων κλάσεων. 

 

11 ώρες πριν, vs_skg είπε

εισαι αυτο που λεμε αμα ΔΕΝ θες να καταλαβεις, δεν θα καταλαβεις, ετσι; Τα δεδομενα ειναι σωστα. Στατιστικα ενα μαυρο προσωπο και ενα προσωπο γοριλα ειναι κοντα. Αμα βαλεις αλμπινο γοριλα θα τον βγάλει κοντα στους καυκασιους. 

Αυτό που γράφεις είναι σωστό μόνο κάτω από πολύ συγκεκριμένες προϋποθέσεις. Το να μάθει το μοντέλο το χρώμα ως καλό χαρακτηριστικό για την αναγνώριση μιας κλάσης, προϋποθέτει συγκεκριμένο training process και learning modeling. Σε ένα τυπικό supervised learning, το πιο πιθανό είναι να μην χρησιμοποιηθεί το χρώμα ως discriminant feature για την διάκριση μεταξύ των συγκεκριμένων κλάσεων. 

 

10 ώρες πριν, petasis είπε

Σου είπα κάτι και δεν έδωσες σημασία: Το ΑΙ είναι ένας μεγεθυντικός φακός, που έχει βοηθήσει να δούμε πολλές αστοχίες των κοινωνιών μας. Και σε πολύ σημαντικότερα θέματα, για παράδειγμα το αν θα πάρεις δάνειο από τράπεζα. Τα σχετικά συστήματα ΑΙ έχουν μετρηθεί, και είναι διαπιστωμένο ότι ο λευκός θα πάρει πολύ ευκολότερα δάνειο. Αυτό θα το πιστώσεις σαν αστοχία αυτού που έφτιαξε το σύστημα (επειδή ακολουθεί κοινωνικά στερεότυπα), αλλά ο πραγματικός ένοχος είναι η ατελής κοινωνία.

Έτσι και εδώ, φταίει το facebook στο ότι δεν φαντάστηκε και δεν έλεγξε ότι το σύστημα του μπορεί να συμπεριφερθεί έτσι. Το αποδέχθηκε και θα βρουν μια λύση. Αλλά δεν φταίει το facebook στο αν χρήστες του επισημειώνουν ανθρώπους σαν ζώα σε φωτογραφίες.

Φυσικά και θέλουμε συστήματα ΑΙ που να είναι καλύτερα από τις κοινωνίες μας, αλλά να συνωμοσιολογεί και να ψάχνει δόλο κανείς επειδή ένα σύστημα αναπαράγει κοινωνικά στερεότυπα, είναι τραβηγμένο. Η αστοχία έρχεται από την κοινωνία.

Εδώ έχουν μπερδευτεί δύο διαφορετικά προβλήματα. 

Το πρώτο πρόβλημα είναι το bias των δεδομένων που χρησιμοποιούνται για εκπαιδεύσουν συστήματα. Αυτό το bias μπορεί κανείς να το δει και στα συστήματα ανάλυσης ρίσκου, για παράδειγμα, όπως αναφέρεις και εσύ. 

Όπως, το πρόβλημα που αναφέρεται στο άρθρο, δεν έχει σχέση με κάτι τέτοιο. 

 

16 ώρες πριν, yiannis1991 είπε

Απ' ότι φαίνεται όχι. Ότι γίνεται γίνεται αλλά θέλει περισσότερο training. Δεν είναι εκεί το θέμα όμως, αλλά στο ότι φυσικά και δεν υπάρχει ρατσιστική πρόθεση. Το AI αναγνωρίζει patterns, βάλε το χρώμα, βάλε ότι οι γορίλες μοιάζουν με ανθρώπους, βάλε τα μεγαλύτερα χείλη και τις κάπως πεπλατυσμένες μυτες που έχουν οι άνθρωποι αφρικανικής καταγωγής, ε εντάξει λογικό να δει ομοιότητες το ΑΙ.

Το ΑΙ αναγνωρίζει χρώμα ως discriminant feature μόνο όταν αυτό συμφέρει να αναγνωριστεί ως τέτοιο. Δεν το κάνει γενικά, γιατί το χρώμα αποτελεί ένα όχι τόσο καλό χαρακτηριστικό για αναγνώριση κλάσεων. 

 

18 ώρες πριν, pirmen56 είπε

Το deep learning AI αναγνωρίζει στατιστικές ομοιότητες μεταξύ φωτογραφιών. Αν αναγνωρίσει ομοιότητες μεταξύ μαύρων και γορίλων θα επιστρέψει το σχετικό αποτέλεσμα. Αφού οι γορίλες είναι ανθρωπόμορφοι και έχουν μαύρο χρώμα.

Δεν είναι biased με κοινωνικές νόρμες για να λογοκρίνει αυτόματα και να μην επιστρέφει προσβλητικά για ανθρώπους αποτελέσματα. Το ακριβώς αντίθετο δηλαδή από αυτό που ισχυρίζονται όλοι οι επικριτές. Οι άνθρωποι είμαστε biased και τροποποιούμε τις απόψεις μας για να αρέσουμε στους άλλους, όχι τα AI συστήματα.

Όχι. Είτε με deep learning είτε με κάποιον άλλον αλγόριθμο μάθησης, να αναγνωρίσει κανείς στατιστικές ομοίτητες μεταξύ φωτογραφιών, είναι ένα συγκεκριμένο task. 

Το ΑΙ, μέχρι στιγμής είναι στην πλειοψηφία η δημιουργία γραμμικά διαχωρίσιμων αναπαραστάσεων από δεδομένα, ώστε να μπορέσει ένας γραμμικός μετασχηματισμός να δώσει την σωστή πρόβλεψη. Αυτό γίνεται από τα SVM και τα νευρωνικά δίκτυα. 

Όμως, άθελα σου (το πιο πιθανό) το νέο παράδειγμα εκπαίδευσης που (πιθανόν) έχει χρησιμοποιηθεί εδώ, κάνει κάτι σαν αυτό που λες. 

  • Like 1
  • Thanks 2
Δημοσ. (επεξεργασμένο)
7 λεπτά πριν, vastegial_74 είπε

Πρεπει καποιοι παντα να δημιουργουν καταστασεις. Αυτο που δεν καταλαβαινω ειναι γιατι καποιοι ενοχληθηκαν. Οι μαυροι οπως και οι ασπροι ειναι ανθρωποι και ουδεμια σχεση εχουν με πιθηκους περα απο το γεγονος πως ειναι πρωτευοντα. Η ενοχληση απο ευαισθητους κορεκτακιδες εχει ακριβως το αντιθετο αποτελεσμα απο αυτο που ταχαμου θιγει. Συνηθως ποτε μας ενοχλει κατι αραγε; Δεν θα πω τιποτα περισσοτερο.

Η συγνώμη του και ο λόγος που τη ζήτησε το FB σου λέει κάτι?

Επεξ/σία από AtiX
Δημοσ.
1 λεπτό πριν, AtiX είπε

Η συγνώμη σου και ο λόγος που ζήτησε το FB σου λέει κάτι?

Φυσικα και μου μου λεει. Ασφαλως προκειται για λαθος. Απο εκει και περα οι διαστασεις που πηρε θεωρω πως ειναι υπερβολικες και σαφως το Facebook μεσα στο κλιμα της εποχης που η πολιτικη ορθοτητα κανει τους ταλιμπαν να φαινονται γατακια, δεν θα μπορουσε να κανει διαφορετικα.

  • Like 3

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...