polemikos Δημοσ. 6 Αυγούστου 2021 Δημοσ. 6 Αυγούστου 2021 Η Apple επιβεβαίωσε πρόσφατα τις φήμες που ήθελαν την εταιρεία να χρησιμοποιεί ένα σύστημα -μέσω και μίας ενημέρωσης που θα διατεθεί στους κατόχους συσκευών της- το οποίο θα της επιτρέπει να σαρώνει τις συσκευές iPhone για την εύρεση φωτογραφιών ή εικόνων με θύματα παιδικής σεξουαλικής κακοποίησης ή παιδικής πορνογραφίας. Η φημολογία, προτού επιβεβαιωθεί από την ίδια της Apple, ξεκίνησε από την εφημερίδα Financial Times, σύμφωνα με την οποία η Αμερικάνικη εταιρεία είχε διαρκείς συναντήσεις με ερευνητές ασφαλείας για το σύστημα «neuralMatch», το οποία θα «σαρώνει διαρκώς τις φωτογραφίες που αποθηκεύονται στις συσκευές iPhone των Αμερικανών χρηστών αλλά και που “ανεβαίνουν» στο σύστημα αντιγράφων ασφαλείας της εταιρείας iCloud». Το σύστημα στη συνέχεια, και εφόσον βρεθούν ενδείξεις για εικόνες ή φωτογραφίες παιδικής σεξουαλικής κακοποίησης «θα ειδοποιεί προληπτικά μία εξειδικευμένη ομάδα ανθρώπων οι οποίοι θα αξιολογούν τα ευρήματα στην περίπτωση που ανιχνευθούν παράνομες φωτογραφίες/ εικόνες». Στη συνέχεια, η ομάδα της Apple θα ειδοποιεί τις αρχές επιβολής του νόμου στην περίπτωση που οι φωτογραφίες αποδειχτούν παράνομες. Η δράση του συστήματος neuralMatch, το οποίο έχει εκπαιδευτεί χρησιμοποιώντας τη βάση δεδομένων του Εθνικού Κέντρου Αγνοουμένων και Κακοποιημένων παιδιών (National Center for Missing and Exploited children) των ΗΠΑ, σε πρώτη φάση θα περιοριστεί στις συσκευές iPhone των Αμερικανών χρηστών. Σε αυτό το σημείο ωστόσο, αξίζει να επισημανθεί ότι με τη συγκεκριμένη κίνηση από την Apple, η εταιρεία δείχνει να αμφιταλαντεύεται πια (ή ακόμα και να κάνει βήματα προς τα πίσω) σε ότι αφορά το ζήτημα της ιδιωτικότητας, όσο σοβαρά, μοχθηρά και ακατανόητα αποτρόπαια είναι τα εγκλήματα παιδικής σεξουαλικής κακοποίησης. Δεν ήταν άλλωστε λίγες οι φορές που βρέθηκε απέναντι από τις αρχές επιβολής του νόμου στις ΗΠΑ για να υπερασπιστεί την ιδιωτικότητα των χρηστών των συσκευών της. Αν θυμάστε, η εταιρεία βρέθηκε αντιμέτωπη με το ίδιο το FBI το 2016 όταν αρνήθηκε να «ξεκλειδώσει» το iPhone του χρήστη που ήταν πίσω από την τρομοκρατική επίθεση στο San Bernardino. Ο Διευθύνων Σύμβουλος της Apple, Tim Cook, είχε δηλώσει τότε ότι το αίτημα της κυβέρνησης ήταν «ανατριχιαστικό» και αν η εταιρεία έκανε ότι της ζητούσαν θα δημιουργούσε προηγούμενο για τη δημιουργία μίας κερκόπορτας για περισσότερη κυβερνητική παρακολούθηση (το FBI τελικώς στράφηκε σε μία εταιρεία ασφαλείας εκτός της Apple για να ξεκλειδώσει το iPhone του τρομοκράτη). Τώρα, διάφοροι ερευνητές ασφαλείας εγείρουν παρόμοιες ανησυχίες. Παρόλο που υπάρχει καθολική συναίνεση και ευρεία υποστήριξη στις αυξανόμενες και ακόμα πιο συλλογικές προσπάθειες για την καταπολέμηση της παιδικής σεξουαλικής κακοποίησης, οι ερευνητές που μίλησαν στην εφημερίδα Financial Times εξέφρασαν την άποψη ότι το σύστημα της Apple θα μπορούσε να ανοίξει την πόρτα σε αυταρχικά καθεστώτα για να κατασκοπεύουν τους πολίτες τους, καθώς ένα σύστημα εκπαιδευμένο και σχεδιασμένο να ανιχνεύει έναν συγκεκριμένο τύπο εικόνας, θα μπορούσε να επεκταθεί και σε άλλους τύπους περιεχομένου, όπως σε οποιοδήποτε περιεχόμενο θα μπορούσε να χαρακτηριστεί «αντικυβερνητικό». Παράλληλα, η Apple και άλλες εταιρείες δέχονται αυξανόμενες πιέσεις για να βρουν τρόπους συνεργασίας με τις αρχές επιβολής του νόμου. Όπως επισημαίνεται και στο άρθρο της εφημερίδας Financial Times, μπορεί οι πλατφόρμες κοινωνικής δικτύωσης ή κάποιοι πάροχοι αποθηκευτικού χώρου cloud, όπως συμβαίνει και στην περίπτωση του iCloud, να χρησιμοποιούν ήδη τέτοια συστήματα ανίχνευσης φωτογραφιών παιδικής κακοποίησης ή παιδικής πορνογραφίας ωστόσο η επέκταση τους στις συσκευές των χρηστών αποτελεί μία πολύ μεγάλη αλλαγή για τη στρατηγική της εταιρείας. Όπως αναφέραμε στην αρχή του άρθρου, αν και αρχικά η εταιρεία αρνήθηκε να σχολιάσει το ρεπορτάζ της εφημερίδας Financial Times, τελικά επιβεβαίωσε σε ανακοίνωση της την πιλοτική λειτουργία του συστήματος. «Η μέθοδος της Apple για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σχεδιάστηκε με γνώμονα την ιδιωτικότητα του χρήστη. Αντί να σαρώνει για εικόνες στο cloud, το σύστημα εκτελεί αντιστοίχιση στη συσκευή χρησιμοποιώντας μια βάση δεδομένων γνωστών κατακερματισμών εικόνων CSAM που παρέχονται από τo NCMEC και άλλους οργανισμούς για την ασφάλεια των παιδιών. Η Apple προχωρά στην περαιτέρω μετατροπή της βάσης δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμένων εικόνων που αποθηκεύονται με ασφάλεια στις συσκευές των χρηστών». Διαβάστε ολόκληρο το άρθρο
bazzil Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 (επεξεργασμένο) τότε με το FBI πείραζε... τώρα δεν πειράζει... σε λίγο θα τις πουλαει και στο διαδίκτυο Επεξ/σία 7 Αυγούστου 2021 από bazzil 7 1 5
george1807 Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Δίκοπο μαχαίρι, γιατί εν μέρη ο σκοπός είναι καλός αλλά το ότι υπάρχει τέτοιος έλεγχος δεν ξέρουμε πότε άλλοτε χρησιμοποιείται χωρίς τη θέληση μας και τη γνώση μας. 28 1 1
AtiX Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Ο σκοπός δεν αγιάζει τα μέσα, δυστυχώς από αλλού τα περιμέναμε αυτά και από αλλού μας ήρθαν… 25 2 1
dionn Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Ειναι ωραιο που στον "βωμο" ενος καλυτερου αυριο ας πουμε τωρα... βρισκουν ολο και περισσοτερους λογος ( μεγαλους, μικρους, επικλησεις στο συναισθημα κλπ κλπ) να εχουν ανεξελεγκτο ελεγχο. Ιδιοτικοτητα μηδεν. Και δεν το λεω για την αππλε μονο μην πεσετε να με φατε... Το οτι καποιος δεν εχει να κρυψει κατι δεν σημαινει μπατε σκυλοι αλεστε και προφανως το ζητημα της πορνογραφιας ειναι σοβαρο αλλα δεν ειναι δικαιολογια να ριχνεις ετσι τα δικαιωματα ολων τον χρηστων για τους λιγους. 20 9 2
iwnas28 Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 3 λεπτά πριν, dionn είπε Ειναι ωραιο που στον "βωμο" ενος καλυτερου αυριο ας πουμε τωρα... βρισκουν ολο και περισσοτερους λογος ( μεγαλους, μικρους, επικλησεις στο συναισθημα κλπ κλπ) να εχουν ανεξελεγκτο ελεγχο. Ιδιοτικοτητα μηδεν. Και δεν το λεω για την αππλε μονο μην πεσετε να με φατε... Το οτι καποιος δεν εχει να κρυψει κατι δεν σημαινει μπατε σκυλοι αλεστε και προφανως το ζητημα της πορνογραφιας ειναι σοβαρο αλλα δεν ειναι δικαιολογια να ριχνεις ετσι τα δικαιωματα ολων τον χρηστων για τους λιγους. Ακριβως, ολα για το καλο μας... 2 1 1
Black Demis Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 άσχετα που το κάνει local ai με μια απλή εντολή από έξω (από την apple δλδ) μπορει για πλάκα να ψάξει για οποιοδήποτε πρόσωπο η άτομο σε ολα τα κινιτα ταυτοχρόνως 4 2
vortex365 Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 "Ο δρόμος για την "κολαση" ειναι στρωμένος με τις καλυτερες προθεσεις" λέει η παριμοια. 17 2
spysoumi Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Τρέξτε να πάρετε Iphone! (Όχι ότι τα android είναι καλύτερα!) 1 2 1
Eloy Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 (επεξεργασμένο) Για να βρει τις "κακές" φωτογραφίες, σημαίνει οτι αναγκαστικά θα "δει" και όλες τις υπόλοιπες - με ποιόν ήσουν χθες, που πήγες, τι έφαγες.... Κι αν ο άλλος είναι μπλεγμένος κάπου, αμέσως αναβαθμίζεσαι σε "person of interest"... Tα άλλα περι σεξουαλικής κακοποίησης είναι για του Βόλου τα εννιάμερα - λες και οι παιδεραστες δεν έμαθαν τώρα οτι θα υπάρχει αυτός ο έλεγχος και θα κυκλοφορούν με τέτοιες φωτογραφίες στο iphone... Με τις υγείες μας... Επεξ/σία 7 Αυγούστου 2021 από Eloy 22 1 1 1
highlander420 Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 (επεξεργασμένο) spyPhone Επεξ/σία 7 Αυγούστου 2021 από highlander420 1 1
Nevyn Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Φέτος θα είναι ο έλεγχος για κάτι ειδεχθές οπως η παιδεραστία ,του χρόνου αφού έχουν συνηθήσει όλοι στο νέο status quo θα είναι για κάτι άλλο,μετά για κάτι άλλο κοκ. Ετσι ξεκινάνε όλα,βήμα βήμα,κρίμα γιατί είχε κάνει μια καλή κίνηση με τις επιλογές που έδινε για τα προσωπικά δεδομένα .Ασε που δεν νομίζω πως θα πιάσει και κανένα αφού είναι γνωστό ότι θα γίνονται τέτοιοι έλεγχοι. 4 1 1 1
jimmyl Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Βαδιζουμε ταχυτατα σε μια εποχη οπου το σεναριο της ταινιας Minority Report θα μοιαζει παιδικο αναγνωσμα 3 1
peet Δημοσ. 7 Αυγούστου 2021 Δημοσ. 7 Αυγούστου 2021 Το ότι θα χρησιμοποιηθει για ένα καλο σκοπό δεν σημαίνει ότι είναι καλή -σωστή ενέργεια ,γιατί στο μέλλον μπορεί η εφαρμογή να χρησιμοποιηθεί και για άλλους "σκοπούς" . Αν η πάταξη της παιδικής πορνογραφίας περιμένουν να επιτευχθεί μέσω αυτής της εφαρμογής ,κοιμούνται τον ύπνο του δικαίου . Τα χαρακτηριστικά της σάρωσης κάλλιστα μπορεί να αποκτήσουν διαφορετικές παραμέτρους και να προκαλέσουν πολύ ουσιαστικότερα προβλήματα . 8 1 1
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα