Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.
3 λεπτά πριν, Imak είπε

επειδη το λες εσυ?

Όχι επειδή έτσι είναι. Μάθε πρώτα τι ισχύει και ξαναέλα για να ζητήσεις συγνώμη για τον ρατσιστικό όρο που έγραψες πριν

  • Like 2
  • Confused 1
  • Απαντ. 91
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ.
15 λεπτά πριν, AtiX είπε

Το βίντεο δεν το έχω δει, έχεις κάποιο link?

Γράψε 

White man calls cops on black man at marina στο google, πηγαινε στα videos και εχει link απο facebook. Εχει ενα κομενο 1.5 λεπτου που ειδα και ενα ολοκληρο 3 και λεπτα

  • Thanks 1
Δημοσ.
9 ώρες πριν, petasis είπε

Τα δεδομένα που χρειάζονται είναι πλέον τεράστια σε όγκο. Τα δεδομένα πρέπει να αντληθούν από τα υπάρχοντα δεδομένα (τα οποία είναι προκατειλημμένα επειδή η κοινωνία είναι προκατειλημμένη), και πολύ συχνά δεν υπάρχουν τα "ουδέτερα" δεδομένα (ούτε μπορούν να φτιαχτούν).

Αν υποθέσουμε ότι η απλ θέλει να φτιάξει την αναγνώριση προσώπου, και βλέπει ότι έχει δεδομένα από τα τηλέφωνα για 600 εκ. λευκούς, 30 εκ. ασιάτες, 20 εκ. μαύρους. Τι μπορεί να κάνει;

Δεν είναι εύκολο να λυθούν ζητήματα που ξεκινούν από κοινωνικά στερεότυπα και λειτουργίες.

[Και θα έπρεπε να διαμαρτυρόμαστε για να διορθωθεί η κοινωνία, και όχι μόνο το είδωλο στην ΤΝ.]

Συμφωνώ απόλυτα! Γι αυτό μίλησα για συστημική προκατάληψη, επειδή σχετίζεται γενικά με το πως το σύστημα είναι ρατσιστικό και αυτό οδηγεί σε αυτά τα αποτελέσματα. Η ευθύνη όσων αναπτύσουν συστήματα ML, ωστόσο, είναι να το γνωρίζουν αυτό και να προσπαθήσουν να το προλάβουν.

  • Like 1
Δημοσ.
23 λεπτά πριν, Nabuko είπε

Όχι επειδή έτσι είναι. Μάθε πρώτα τι ισχύει και ξαναέλα για να ζητήσεις συγνώμη για τον ρατσιστικό όρο που έγραψες πριν

Ρατσιστικο το θεωρεις εσυκ καποιοι αλλοι ισως, 

Ολοι εγχρωμοι ειμαστε κατα την γνωμη μου, εκτος  κ αν θεωρεις το λευκο πωσ δν ειναι χρωμα. 

Ρατσιστικο δν θα το ελεγα 

Αν κ δν ειναι πολιτικα ορθο

Θα το προτιμουσα απο το μαυρο εν ολιγοις

 

  • Confused 1
Δημοσ.
2 λεπτά πριν, Imak είπε

Ρατσιστικο το θεωρεις εσυκ καποιοι αλλοι ισως, 

Ολοι εγχρωμοι ειμαστε κατα την γνωμη μου, εκτος  κ αν θεωρεις το λευκο πωσ δν ειναι χρωμα. 

Ρατσιστικο δν θα το ελεγα 

Αν κ δν ειναι πολιτικα ορθο

Θα το προτιμουσα απο το μαυρο εν ολιγοις

 

Ο γραπτός λόγος έχει κάποιους κανόνες φίλε μου και έχει σχέση πάντα πως χρησιμοποιείτε μια λέξη… 

Δημοσ. (επεξεργασμένο)

Το πρόβλημα είναι ότι μας έχουν φλομώσει μέσω διαφόρων άσχετων πηγών απο ταινίες μέχρι social media ότι το AI είναι κάτι μαγικό που θα λύσει τα προβλήματα του μοναχό του...αλλά όπως τα περισσότερα στην πραγματική ζωή δεν ισχύει.

Το AI είναι ουσιαστικά 1 ελεγκτής μοτίβων...παίρνει μια βάση πληροφοριών και ψάχνει να βρει ομοιότητες ανάμεσα στις πληροφορίες που δίνονται...σε καμμία περίπτωση δεν υπάρχει ο όρος της "νοημοσύνης" όπως την καταλαβαίνουμε στον άνθρωπο.... δηλαδή δεν πρόκειται να πάρει π.χ 1000 φωτογραφίες και όντως να ελέγξει κατα πόσο η πληροφορία που άντλησε απο αυτές τις 1000 φωτογραφίες είναι σωστή και ανταποκρίνεται σε αυτό που βλέπει.

Απλώς αναμασάμε σε κάθε αλγόριθμο πόσο σημαντική θεωρεί μια βασική πληροφορία και αναλόγως με το ποσοστό επιτυχίας θεωρείται επιτυχία ή όχι.

Αλλά λόγω έλλειψης κριτικής σκέψης απλώς πάντα θα αποτυγχάνει όταν κάτι δεν ταιριάζει 100%.

Φανταστείτε να πάμε σε πιο σύνθετες καταστάσεις ..π.χ στην ταινία "Ο Πλανήτης των Πιθήκων" (τις παλιές ... οι καινούργιες λόγω CGI ..αστο) αμφιβάλλω αν θα μπορέσει ποτέ μια AI να καταλάβει 100% αν έχει να κάνει με ανθρώπους ή πιθήκους.... φανταστείτε πέρα απο την εξωτερική εμφάνιση θα πρέπει να ελέγξει τρόπο κίνησης, σωματότυπο, περιβάλλον κτλ...μιλάμε για εκατομμύρια συνδυασμούς που όμως το ανθρώπινο μυαλό κάνει τις απαραίτητες συσχετίσεις και αποφαίνεται....είναι άνθρωποι με κουστούμια.

Επεξ/σία από masteripper
Δημοσ.
57 λεπτά πριν, DrKo είπε

Γενικά: 

Το συγκεκριμένο πρόβλημα που έγινε με το μοντέλο του Facebook, το πιο πιθανό είναι ότι δεν είναι γενικά του "ΑΙ". Όντως, υπάρχει ένα θέμα με το τι μαθαίνουν τα διάφορα μοντέλα. Για παράδειγμα, κατά τις πρώτες χρήσεις μοντέλων αναγνώρισης προσώπου για law reinforcement tasks, είχε παρατηρηθεί ότι τα έγχρωμα πρόσωπα είχαν συνδεθεί με εγκληματικές πράξεις, ενώ ένα λευκό πρόσωπο όχι. 

Το από πάνω είναι όμως ένα πρόβλημα των δεδομένων που χρησιμοποιούνται για την εκπαίδευση του συστήματος. Δηλαδή, εάν το σύστημα βλέπει συνέχεια φωτογραφίες έγχρωμων ανθρώπων, για τις οποίες φωτογραφίες θα πρέπει να μάθει ότι είναι πολύ πιθανό να εικονίζουν έναν εγκληματία, τότε είναι πολύ προσοδοφόρο για το σύστημα να χρησιμοποιήσει το χρώμα του προσώπου ως ένα χαρακτηριστικό που θα διαχωρίσει εγκληματίες και μη. Αυτό το πρόβλημα δεν είναι θέμα του ΑΙ αλλά του συστημικού ρατσισμού που αντικατοπτρίζεται στα δεδομένα που χρησιμοποιήθηκαν. 

Το συγκεκριμένο πρόβλημα όμως που αναφέρεται εδώ, το πιο πιθανό είναι πως δεν είναι θέμα ρατσισμού αλλά είναι μία απρόσμενη συνέπεια ενός νέου τρόπου εκπαίδευσης. Κατά αυτόν τον νέο τρόπο, είναι πολύ λογικό να χρησιμοποιηθεί ένα τόσο χαμηλού επιπέδου χαρακτηριστικό (όπως το χρώμα των pixels) για την κατηγοριοποίηση εικόνων. 

 

Για συγκεκριμένες απαντήσεις: 
 

Δεν θα μιλούσα με τόσο κακά λόγια για τους ερευνητές του FAIR. Το "μπαγλαμάδες" δείχνει άγνοια για το τι έχει προσφέρει το FAIR ως ίδρυμα. 

Από εκεί και πέρα, παρακολουθώντας την διεθνή ερευνητική σκηνή από αρκετά κοντά, μπορώ να εικάσω ότι το λάθος έγινε λόγω του νέου paradigm που χρησιμοποιείται, και διαφέρει από το παραδοσιακό supervised learning. Για αυτό και το χρώμα των pixels έγινε κυρίαρχο χαρακτηριτικό για την ανίχνευση κάποιων συγκεκριμένων κλάσεων. 

 

Αυτό που γράφεις είναι σωστό μόνο κάτω από πολύ συγκεκριμένες προϋποθέσεις. Το να μάθει το μοντέλο το χρώμα ως καλό χαρακτηριστικό για την αναγνώριση μιας κλάσης, προϋποθέτει συγκεκριμένο training process και learning modeling. Σε ένα τυπικό supervised learning, το πιο πιθανό είναι να μην χρησιμοποιηθεί το χρώμα ως discriminant feature για την διάκριση μεταξύ των συγκεκριμένων κλάσεων. 

 

Εδώ έχουν μπερδευτεί δύο διαφορετικά προβλήματα. 

Το πρώτο πρόβλημα είναι το bias των δεδομένων που χρησιμοποιούνται για εκπαιδεύσουν συστήματα. Αυτό το bias μπορεί κανείς να το δει και στα συστήματα ανάλυσης ρίσκου, για παράδειγμα, όπως αναφέρεις και εσύ. 

Όπως, το πρόβλημα που αναφέρεται στο άρθρο, δεν έχει σχέση με κάτι τέτοιο. 

 

Το ΑΙ αναγνωρίζει χρώμα ως discriminant feature μόνο όταν αυτό συμφέρει να αναγνωριστεί ως τέτοιο. Δεν το κάνει γενικά, γιατί το χρώμα αποτελεί ένα όχι τόσο καλό χαρακτηριστικό για αναγνώριση κλάσεων. 

 

Όχι. Είτε με deep learning είτε με κάποιον άλλον αλγόριθμο μάθησης, να αναγνωρίσει κανείς στατιστικές ομοίτητες μεταξύ φωτογραφιών, είναι ένα συγκεκριμένο task. 

Το ΑΙ, μέχρι στιγμής είναι στην πλειοψηφία η δημιουργία γραμμικά διαχωρίσιμων αναπαραστάσεων από δεδομένα, ώστε να μπορέσει ένας γραμμικός μετασχηματισμός να δώσει την σωστή πρόβλεψη. Αυτό γίνεται από τα SVM και τα νευρωνικά δίκτυα. 

Όμως, άθελα σου (το πιο πιθανό) το νέο παράδειγμα εκπαίδευσης που (πιθανόν) έχει χρησιμοποιηθεί εδώ, κάνει κάτι σαν αυτό που λες. 

απο το οτι λες τα νευρωνικα δικτυα γραμμικο μετασχηματισμο καρφωνεσαι για το ποση επαφη εχεις με τα υπολοιπα, πας να διορθωσεις κιολας :P

Να σκισω πτυχιο και μεταπτυχιακο και να ερθω να με διδάξεις εσυ; 

  • Confused 1
Δημοσ.
45 minutes ago, Imak said:

Ρατσιστικο το θεωρεις εσυκ καποιοι αλλοι ισως, 

Ολοι εγχρωμοι ειμαστε κατα την γνωμη μου, εκτος  κ αν θεωρεις το λευκο πωσ δν ειναι χρωμα. 

Ρατσιστικο δν θα το ελεγα 

Αν κ δν ειναι πολιτικα ορθο

Θα το προτιμουσα απο το μαυρο εν ολιγοις

 

Το τι πιστεύεις/προτιμάς και το τι ισχύει, δεν ταυτίζονται όμως. 

Δημοσ. (επεξεργασμένο)
46 λεπτά πριν, vs_skg είπε

απο το οτι λες τα νευρωνικα δικτυα γραμμικο μετασχηματισμο καρφωνεσαι για το ποση επαφη εχεις με τα υπολοιπα, πας να διορθωσεις κιολας :P

Να σκισω πτυχιο και μεταπτυχιακο και να ερθω να με διδάξεις εσυ; 

Ναι, να τα σκίσεις.

Το τελευταίο layer σε ένα νευρωνικό κάνει πάντα γραμμικό μετασχηματισμό. Όχι πως τα άλλα layers δεν κάνουν μόνο αυτό, αλλά ειδικά στο τελευταίο, αυτό που γίνεται είναι η εύρεση των «γραμμών» που χωρίζουν τις κλάσεις (στην απλή περίπτωση ενός classification). 

Προφανώς τσάμπα πήγανε τα χρόνια στις σπουδές. 

Χώρια ότι τα νευρωνικά δίκτυα ήταν γραμμικός μετασχηματισμός εξ αρχής. Όταν άρχισαν να έχουν παραπάνω από ένα layer, η διαφορά ήταν στην είσοδο του τελευταίου layer, που πάλι ήταν ένας γραμμικός μετασχηματισμός.

Για αυτό το λόγο, το deep learning είναι η διαδικασία για να μάθει το σύστημα χρήσιμα features έτσι ώστε να αποδώσει καλά ο γραμμικός μετασχηματισμός στο τέλος.

Βέβαια, εάν δεν ήσουν ο κλασικός ημιμαθείς που έκανε ένα μεταπτυχιακό και νομίζει ότι είναι κάτι, ίσως να τα είχες μάθει αυτά. 

Υ.Γ. Και χλωμό να έρθεις να σε διδάξω. Αποφεύγω να διδάσκω ημιμαθείς, είναι η χειρότερη φάρα

Επεξ/σία από DrKo
Δημοσ.

είμαι σίγουρος πως εαν το AI του FACEBOOK μας διαβάζει...θα νομίζει οτι τα περισσότερα σχόλια τα γράψανε πίθηκοι....και θα μας φταίει το ΑΙ μετά :mad:

Δημοσ.
22 ώρες πριν, leogr90 είπε

Μα δεν ειναι ρατσιστικο. Ο ρατσισμος εχει να κανει με την πεποίθηση οτι μια φυλη, φυλο, ιδιολογια κλπ. ειναι κατωτερη μιας αλλης. 
Αυτο ειναι απλα ενα bug του προγραμματος, μη τα βαφτιζουμε ολα "ρατσισμο".

Ναι αλλα το bug που οφειλεται? Μηπως δεν βαλαν αρκετες εικονες μαυρων στην εκπαιδευση του ΑΙ? και ετσι δεν εγινε σωστα? λεω εγω τωρα...

Δημοσ. (επεξεργασμένο)
Στις 5/9/2021 στις 2:54 ΜΜ, George Mav είπε

Καθόλου ρατσιστικό…

 

 

Στις 5/9/2021 στις 3:10 ΜΜ, korakios είπε

αρκετές , το ίδιο είχε γίνει με google

 

23 ώρες πριν, Nikolhs123 είπε

racist wonder showzen GIF

 

19 ώρες πριν, liberostelios είπε

Κι όμως, είναι biased γιατί μεταφέρει τις προκαταλήψεις του δημιουργού του. Αν δεν έχει φροντίσει ο δημιουργός του να εκπαιδεύσει τον αλγόριθμο αρκετά με εικόνες μαύρων ανθρώπων, είναι λογικό να μην μπορεί να τους ξεχωρίσει ικανοποιητικά.

 

18 ώρες πριν, panther_512 είπε

"Με ότι δάσκαλο θα κάτσεις, τέτοια γράμματα θα μάθεις" 

 

15 ώρες πριν, highlander420 είπε

Based

 

8 ώρες πριν, Imak είπε

μηπως το αρθο επρεπε να γραφει για εγχρωμους κ οχι μαυρους...?

λεω εγω τωρα

 

Και πολλά άλλα σχόλια θα έκανα παράθεση αλλά βαρέθηκα..... Λοιποννννν..... Ναι έχετε δίκαιο η Facebook ήθελε να χάσει κόσμο και να την βρίζουν όλα τα συνδικάτα και και ολοι οι οργανισμοί κατά του ρατσισμού  των μαύρων..... Ήθελε να έχει ρετσινιά βρε παιδί μου.... Λένε μια μέρα: Σαν πολλά λεφτά δεν βγάζουμε;;; Ας τα μειώσουμε λίγο, ααα ναι ωραία ας τα μειώσουμε και τι θα κάνουμε;;;; αααα θα γίνουμε ρατσιστές. ΝΑΙΙΙΙΙΙΙΙΙ!!!! Ε και το αποτέλεσμα γνωστό... ΑΙ και τρεχαγύρευε! Επίσης από αρχαιοτάτων χρόνων ειναι γνωστό ότι η λέξη μαύρο είναι ποινικοποιημένη λέξη. Οπότε δεν θα την χρησιμοποιεί κανένας.... Γιαβολ? Γιαβόλ μάιν κομαντάντ!!! 

Επεξ/σία από spysoumi
  • Confused 2
  • Moderators
Δημοσ.
32 λεπτά πριν, spysoumi είπε

 

 

 

 

 

 

 

 

Και πολλά άλλα σχόλια θα έκανα παράθεση αλλά βαρέθηκα..... Λοιποννννν..... Ναι έχετε δίκαιο η Facebook ήθελε να χάσει κόσμο και να την βρίζουν όλα τα συνδικάτα και και ολοι οι οργανισμοί κατά του ρατσισμού  των μαύρων..... Ήθελε να έχει ρετσινιά βρε παιδί μου.... Λένε μια μέρα: Σαν πολλά λεφτά δεν βγάζουμε;;; Ας τα μειώσουμε λίγο, ααα ναι ωραία ας τα μειώσουμε και τι θα κάνουμε;;;; αααα θα γίνουμε ρατσιστές. ΝΑΙΙΙΙΙΙΙΙΙ!!!! Ε και το αποτέλεσμα γνωστό... ΑΙ και τρεχαγύρευε! Επίσης από αρχαιοτάτων χρόνων ειναι γνωστό ότι η λέξη μαύρο είναι ποινικοποιημένη λέξη. Οπότε δεν θα την χρησιμοποιεί κανένας.... Γιαβολ? Γιαβόλ μάιν κομαντάντ!!! 

Λιγο ακυρο το ποστ σου, τουλαχιστον ως προς την παραθεση σε εμενα, μιας και εγω αναφερθηκα στο οτι δεν ειναι κατι νεο το ΑΙ να μπερδευει μαυρους με πιθκους.

  • Confused 1
Δημοσ. (επεξεργασμένο)
3 ώρες πριν, DrKo είπε

Ναι, να τα σκίσεις.

Το τελευταίο layer σε ένα νευρωνικό κάνει πάντα γραμμικό μετασχηματισμό. Όχι πως τα άλλα layers δεν κάνουν μόνο αυτό, αλλά ειδικά στο τελευταίο, αυτό που γίνεται είναι η εύρεση των «γραμμών» που χωρίζουν τις κλάσεις (στην απλή περίπτωση ενός classification). 

Προφανώς τσάμπα πήγανε τα χρόνια στις σπουδές. 

Χώρια ότι τα νευρωνικά δίκτυα ήταν γραμμικός μετασχηματισμός εξ αρχής. Όταν άρχισαν να έχουν παραπάνω από ένα layer, η διαφορά ήταν στην είσοδο του τελευταίου layer, που πάλι ήταν ένας γραμμικός μετασχηματισμός.

Για αυτό το λόγο, το deep learning είναι η διαδικασία για να μάθει το σύστημα χρήσιμα features έτσι ώστε να αποδώσει καλά ο γραμμικός μετασχηματισμός στο τέλος.

Βέβαια, εάν δεν ήσουν ο κλασικός ημιμαθείς που έκανε ένα μεταπτυχιακό και νομίζει ότι είναι κάτι, ίσως να τα είχες μάθει αυτά. 

Υ.Γ. Και χλωμό να έρθεις να σε διδάξω. Αποφεύγω να διδάσκω ημιμαθείς, είναι η χειρότερη φάρα

Έχω και εγώ απορίες:

"Το τελευταίο layer σε ένα νευρωνικό κάνει πάντα γραμμικό μετασχηματισμό". Σε εφαρμογές κατηγοριοποίησης πολύ συχνά το τελευταίο επίπεδο περιλαμβάνει softmax. Δύσκολα το λες γραμμικό μετασχηματισμό (δεν το λες καθόλου δηλαδή).

Επίσης, τα νευρωνικά δίκτυα αδυνατώ να τα δω σαν γραμμικούς μετασχηματισμούς. Τι εννοείς με τον "γραμμικό μετασχηματισμό"; Αν σε κάθε επίπεδο δεν εφαρμόσεις μια μη-γραμμικότητα, το δίκτυό σου θα καταρρεύσει σε ένα επίπεδο.

Γενικά, διακρίνω "θεματάκια". 🙃

Επεξ/σία από petasis
Δημοσ.

Τα παντα έχουν να κάνουν με το timing κατα την άποψη μου.…

.…δλδ δεν είχαν ήδη διχασμό στην κοινωνία λόγω ρατσιστικών και μη περιστατικών στον πληθυσμό τους στην Αμερική , τσουπ , έκανε λάθος και το ΑΙ…

….διαίρει και βασίλευε - μια χαρά το πάνε 

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...