deligkos Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Τη συμβουλή ενός συστήματος τεχνητής νοημοσύνης θα μπορούν να παίρνουν σε λίγους μήνες οι αστυνομικοί της κομητείας του Durham στη Βρετανία, όταν πρόκειται να κρίνουν κατά πόσο ένας κατηγορούμενος θα πρέπει να προφυλακισθεί ή όχι. Το σύστημα κατατάσσει τους κατηγορούμενους σε τρεις ομάδες - “μικρού”, “μέτριου” και “υψηλού” ρίσκου τέλεσης των ίδιων αδικημάτων, στην περίπτωση που κριθούν μη προφυλακιστέοι. Για την εκπαίδευσή του, χρησιμοποιήθηκαν τα αστυνομικά αρχεία της περιόδου 2008-2012, ενώ τέθηκε σε δοκιμαστική λειτουργία το 2013. Οι εκτιμήσεις του συγκρίθηκαν μέσα στα δύο επόμενα χρόνια με την πραγματική εξέλιξη των σχετικών υποθέσεων, δηλαδή το κατά πόσο οι κατηγορούμενοι τέλεσαν ή όχι τα ίδια αδικήματα. Η ανάλυση έδειξε πως οι κατατάξεις κατηγορουμένων στην κατηγορία “χαμηλού ρίσκου” είχαν ποσοστό ακρίβειας 98%, ενώ στην “υψηλού ρίσκου” 88%. Κατά τη διάρκεια των δοκιμών, οι αστυνομικές αρχές δεν λάμβαναν υπόψη τους τις αξιολογήσεις. Η εφαρμογή του συστήματος θα είναι σε πρώτη φάση πιλοτική, καθώς οι αστυνομικοί θα το συμβουλεύονται σε περιπτώσεις που θα επιλέγονται τυχαία. Έτσι, θα μπορούν να συγκριθούν τα αποτελέσματα της χρήσης του, με την έκβαση των υποθέσεων όπου δεν αξιοποιήθηκε ως σύμβουλος. Πέρυσι, πάντως, η αμερικανική ειδησεογραφική ιστοσελίδα ProPublica δημοσίευσε μία έρευνα για έναν ανάλογο αλγόριθμο που προβλέπει την πιθανότητα διάπραξης εγκλημάτων από κάποιον συλληφθέντα. Αν και η εταιρεία αμφισβήτησε τα συμπεράσματα της έρευνας, η μελέτη αυτή έδειξε πως το λογισμικό εμφάνιζε μεροληψία ανάλογα με το χρώμα του υπόπτου – κάνοντας περισσότερο αρνητικές προβλέψεις στην περίπτωση των έγχρωμων συλληφθέντων. Σύμφωνα με τον Cary Coglianese, καθηγητή πολιτικής επιστήμης στο πανεπιστήμιο της Pennsylvania που έχει μελετήσει αλγορίθμους λήψης αποφάσεων, σε κάποιον βαθμό αυτά α συστήματα φέρνουν στο προσκήνιο κρυφές και άρρητες προκαταλήψεις που έχει και ο άνθρωπος. Μάλιστα, όπως συμπληρώνει, πρόκειται για πολύ περίπλοκα μοντέλα, ώστε να είναι δύσκολο να εκτιμηθεί τυχόν μεροληψία τους. Site: BBC
Whargoul Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ. 5
Επισκέπτης Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Ένα τέτοιο σύστημα θα μας έσωζε από Παπανδρέους Τσίπρες και αντίστοιχα Κούληδες στο μέλλον. Το βρίσκω εξαιρετικά χρήσιμο για τη συγκεκριμένη δουλειά. Που αγοράζω ένα;
michael92 Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ. Το θέμα είναι το σύστημα να έχει σχεδιασθεί να είναι αμερόληπτο. AI δεν σημαίνει zero bias... 5
billkar13 Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Μέχρι και το ΑΙ βγαλανε ρατσιστή τι είναι αυτοι ρε μαζεψτε τους 1
coffeex Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Μέχρι και το ΑΙ βγαλανε ρατσιστή τι είναι αυτοι ρε μαζεψτε τους Γιατί νομίζεις ότι δεν μπορεί κάποιος(-οι) να βάλουν το χέρι τους και να αλλοιώνουν τα πραγματικά γεγονότα; Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day 1
Super Moderators Thresh Δημοσ. 12 Μαΐου 2017 Super Moderators Δημοσ. 12 Μαΐου 2017 Δυστυχώς η μόνη μορφή πραγματικής δικαιοσύνης μόνο με ΑΙ μπορεί να υπάρξει, καθώς δεν θα εξαρτάτε από πόσους δικηγόρους θα έχεις (άρα πόσα λεφτά έχεις να σπρώξεις) διασυνδέσεις, θέση κλπ. Αρκεί να μην ισχύουν ακόμα retard νόμοι και το Σύνταγμα να μην έχει μείνει outdated... 1
Lanike71 Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Θα είχε ενδιαφέρον να δούμε πιο αναλυτικά την έρευνα, πόσες ήταν οι υποθέσεις, ποιά χαρακτηριστικά χρησιμοποιήθηκαν κλπ. Στο μόνο που ενίσταμαι (αν κατάλαβα καλά από το άρθρο), είναι που έψαχναν αν ο κατηγορούμενος έκανε το ίδιο αδίκημα. Αν ένας τύπος είναι παραβατικός γενικά, δε νομίζω να έχει θέμα με τα αδικήματα. Διαπράττει μπόλικα και πολλών ειδών, που συνήθως, συνδέονται μεταξύ τους.Πχ ένας έμπορος ναρκωτικών, είναι δύσκολο να μην εμπλακεί σε απόπειρα δολοφονίας κλπ. Οπότε κατ' εμέ, θα ήταν καλύτερα να απαντάται το ερώτημα "διέπραξε πάλι αδίκημα;". 1
Hatsos Δημοσ. 12 Μαΐου 2017 Δημοσ. 12 Μαΐου 2017 Πω πω και πως δεν μου αρέσουν καθόλου κάτι τέτοια με ΑΙ κτλ. Πραγματικά νομίζω ότι δεν χρειάζεται. Άσε που απο την στιγμή που κάποιος το προγγραματίζει όπως θέλει πάει άκυρο το δίκαιο κτλ.
alexandergr Δημοσ. 13 Μαΐου 2017 Δημοσ. 13 Μαΐου 2017 Πω πω και πως δεν μου αρέσουν καθόλου κάτι τέτοια με ΑΙ κτλ. Πραγματικά νομίζω ότι δεν χρειάζεται. Άσε που απο την στιγμή που κάποιος το προγγραματίζει όπως θέλει πάει άκυρο το δίκαιο κτλ. Με ανοιχτό κώδικα μπορεί άνετα να επικυρωθεί η ακρίβεια ενός τέτοιου συστήματος. Ακριβώς όπως τα συστήματα κρυπτογράφησης.
greenalex1996 Δημοσ. 13 Μαΐου 2017 Δημοσ. 13 Μαΐου 2017 Ωχ θα μπαίνουν άδικα στην φυλακή άνθρωποι όπως σκότωναν άδικα άτομα με θανατική ποινή ενώ δεν έφταιγαν
buffos Δημοσ. 13 Μαΐου 2017 Δημοσ. 13 Μαΐου 2017 Το μόνο που ουσιαστικά κάνει είναι να "επιβάλει" την κοινή πρακτική.Δηλαδή.. Εξετάζει Χιλιάδες περιπτώσεις... και δημιουργεί ένα μοτίβο... και απαντά ναι/οχι. Δηλαδή δημιουργεί μια απεικόνιση που "πλησιάζει" όσο πιο κοντά την πραγματικότητα με βάση το αποτέλεσμα. Τι κερδίζει κάποιος από αυτό? Οτι θα εφαρμόζεται ΓΙΑ ΟΛΟΥΣ η "κοινή πρακτική" και όχι κατ εξαίρεση.Γενικά μια AI based δικαιοσύνη , ειδικά σε ζητήματα που δεν χρειάζεται η ερμηνεία δεδομένων θα ήταν τεράστια λύση (τόσο στην ταχύτητα απονομής όσο και στην ισονομία)
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα