Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

Η Apple επιβεβαίωσε πρόσφατα τις φήμες που ήθελαν την εταιρεία να χρησιμοποιεί ένα σύστημα -μέσω και μίας ενημέρωσης που θα διατεθεί στους κατόχους συσκευών της- το οποίο θα της επιτρέπει να σαρώνει τις συσκευές iPhone για την εύρεση φωτογραφιών ή εικόνων με θύματα παιδικής σεξουαλικής κακοποίησης ή παιδικής πορνογραφίας.

Η φημολογία, προτού επιβεβαιωθεί από την ίδια της Apple, ξεκίνησε από την εφημερίδα Financial Times, σύμφωνα με την οποία η Αμερικάνικη εταιρεία είχε διαρκείς συναντήσεις με ερευνητές ασφαλείας για το σύστημα «neuralMatch», το οποία θα «σαρώνει διαρκώς τις φωτογραφίες που αποθηκεύονται στις συσκευές iPhone των Αμερικανών χρηστών αλλά και που “ανεβαίνουν» στο σύστημα αντιγράφων ασφαλείας της εταιρείας iCloud».    

Το σύστημα στη συνέχεια, και εφόσον βρεθούν ενδείξεις για εικόνες ή φωτογραφίες παιδικής σεξουαλικής κακοποίησης «θα ειδοποιεί προληπτικά μία εξειδικευμένη ομάδα ανθρώπων οι οποίοι θα αξιολογούν τα ευρήματα στην περίπτωση που ανιχνευθούν παράνομες φωτογραφίες/ εικόνες». Στη συνέχεια, η ομάδα της Apple θα ειδοποιεί τις αρχές επιβολής του νόμου στην περίπτωση που οι φωτογραφίες αποδειχτούν παράνομες. Η δράση του συστήματος neuralMatch, το οποίο έχει εκπαιδευτεί χρησιμοποιώντας τη βάση δεδομένων του Εθνικού Κέντρου Αγνοουμένων και Κακοποιημένων παιδιών (National Center for Missing and Exploited children) των ΗΠΑ, σε πρώτη φάση θα περιοριστεί στις συσκευές iPhone των Αμερικανών χρηστών.

Σε αυτό το σημείο ωστόσο, αξίζει να επισημανθεί ότι με τη συγκεκριμένη κίνηση από την Apple, η εταιρεία δείχνει να αμφιταλαντεύεται πια (ή ακόμα και να κάνει βήματα προς τα πίσω) σε ότι αφορά το ζήτημα της ιδιωτικότητας, όσο σοβαρά, μοχθηρά και ακατανόητα αποτρόπαια είναι τα εγκλήματα παιδικής σεξουαλικής κακοποίησης. Δεν ήταν άλλωστε λίγες οι φορές που βρέθηκε απέναντι από τις αρχές επιβολής του νόμου στις ΗΠΑ για να υπερασπιστεί την ιδιωτικότητα των χρηστών των συσκευών της. Αν θυμάστε, η εταιρεία βρέθηκε αντιμέτωπη με το ίδιο το FBI το 2016 όταν αρνήθηκε να «ξεκλειδώσει» το iPhone του χρήστη που ήταν πίσω από την τρομοκρατική επίθεση στο San Bernardino. Ο Διευθύνων Σύμβουλος της Apple, Tim Cook, είχε δηλώσει τότε ότι το αίτημα της κυβέρνησης ήταν «ανατριχιαστικό» και αν η εταιρεία έκανε ότι της ζητούσαν θα δημιουργούσε προηγούμενο για τη δημιουργία μίας κερκόπορτας για περισσότερη κυβερνητική παρακολούθηση (το FBI τελικώς στράφηκε σε μία εταιρεία ασφαλείας εκτός της Apple για να ξεκλειδώσει το iPhone του τρομοκράτη).

Τώρα, διάφοροι ερευνητές ασφαλείας εγείρουν παρόμοιες ανησυχίες. Παρόλο που υπάρχει καθολική συναίνεση και ευρεία υποστήριξη στις αυξανόμενες και ακόμα πιο συλλογικές προσπάθειες για την καταπολέμηση της παιδικής σεξουαλικής κακοποίησης, οι ερευνητές που μίλησαν στην εφημερίδα Financial Times εξέφρασαν την άποψη ότι το σύστημα της Apple θα μπορούσε να ανοίξει την πόρτα σε αυταρχικά καθεστώτα για να κατασκοπεύουν τους πολίτες τους, καθώς ένα σύστημα εκπαιδευμένο και σχεδιασμένο να ανιχνεύει έναν συγκεκριμένο τύπο εικόνας, θα μπορούσε να επεκταθεί και σε άλλους τύπους περιεχομένου, όπως σε οποιοδήποτε περιεχόμενο θα μπορούσε να χαρακτηριστεί «αντικυβερνητικό».  Παράλληλα, η Apple και άλλες εταιρείες δέχονται αυξανόμενες πιέσεις για να βρουν τρόπους συνεργασίας με τις αρχές επιβολής του νόμου. Όπως επισημαίνεται και στο άρθρο της εφημερίδας Financial Times, μπορεί οι πλατφόρμες κοινωνικής δικτύωσης ή κάποιοι πάροχοι αποθηκευτικού χώρου cloud, όπως συμβαίνει και στην περίπτωση του iCloud, να χρησιμοποιούν ήδη τέτοια συστήματα ανίχνευσης φωτογραφιών παιδικής κακοποίησης ή παιδικής πορνογραφίας ωστόσο η επέκταση τους στις συσκευές των χρηστών αποτελεί μία πολύ μεγάλη αλλαγή για τη στρατηγική της εταιρείας.

Όπως αναφέραμε στην αρχή του άρθρου, αν και αρχικά η εταιρεία αρνήθηκε να σχολιάσει το ρεπορτάζ της εφημερίδας Financial Times, τελικά επιβεβαίωσε σε ανακοίνωση της την πιλοτική λειτουργία του συστήματος. «Η μέθοδος της Apple για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σχεδιάστηκε με γνώμονα την ιδιωτικότητα του χρήστη. Αντί να σαρώνει για εικόνες στο cloud, το σύστημα εκτελεί αντιστοίχιση στη συσκευή χρησιμοποιώντας μια βάση δεδομένων γνωστών κατακερματισμών εικόνων CSAM που παρέχονται από τo NCMEC και άλλους οργανισμούς για την ασφάλεια των παιδιών. Η Apple προχωρά στην περαιτέρω μετατροπή της βάσης δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμένων εικόνων που αποθηκεύονται με ασφάλεια στις συσκευές των χρηστών».


Διαβάστε ολόκληρο το άρθρο

  • Απαντ. 105
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ. (επεξεργασμένο)

τότε με το FBI πείραζε... τώρα δεν πειράζει... σε λίγο θα τις πουλαει και στο διαδίκτυο

Επεξ/σία από bazzil
  • Like 7
  • Thanks 1
  • Confused 5
Δημοσ.

Δίκοπο μαχαίρι, γιατί εν μέρη ο σκοπός είναι καλός αλλά το ότι υπάρχει τέτοιος έλεγχος δεν ξέρουμε πότε άλλοτε χρησιμοποιείται χωρίς τη θέληση μας και τη γνώση μας. 

  • Like 28
  • Thanks 1
  • Confused 1
Δημοσ.

Ο σκοπός δεν αγιάζει τα μέσα, δυστυχώς από αλλού τα περιμέναμε αυτά και από αλλού μας ήρθαν…

  • Like 25
  • Thanks 2
  • Confused 1
Δημοσ.

Ειναι ωραιο που στον "βωμο" ενος καλυτερου αυριο ας πουμε τωρα... βρισκουν ολο και περισσοτερους λογος ( μεγαλους, μικρους, επικλησεις στο συναισθημα κλπ κλπ) να εχουν ανεξελεγκτο ελεγχο. Ιδιοτικοτητα μηδεν. Και δεν το λεω για την αππλε μονο μην πεσετε να με φατε...

Το οτι καποιος δεν εχει να κρυψει κατι δεν σημαινει μπατε σκυλοι αλεστε και προφανως το ζητημα της πορνογραφιας ειναι σοβαρο αλλα δεν ειναι δικαιολογια να ριχνεις ετσι τα δικαιωματα ολων τον χρηστων για τους λιγους.

 

  • Like 20
  • Thanks 9
  • Confused 2
Δημοσ.
3 λεπτά πριν, dionn είπε

Ειναι ωραιο που στον "βωμο" ενος καλυτερου αυριο ας πουμε τωρα... βρισκουν ολο και περισσοτερους λογος ( μεγαλους, μικρους, επικλησεις στο συναισθημα κλπ κλπ) να εχουν ανεξελεγκτο ελεγχο. Ιδιοτικοτητα μηδεν. Και δεν το λεω για την αππλε μονο μην πεσετε να με φατε...

Το οτι καποιος δεν εχει να κρυψει κατι δεν σημαινει μπατε σκυλοι αλεστε και προφανως το ζητημα της πορνογραφιας ειναι σοβαρο αλλα δεν ειναι δικαιολογια να ριχνεις ετσι τα δικαιωματα ολων τον χρηστων για τους λιγους.

 

Ακριβως, ολα για το καλο μας...

  • Like 2
  • Confused 1
  • Sad 1
Δημοσ.

άσχετα που το κάνει local ai με μια απλή εντολή από έξω (από την apple δλδ) μπορει για πλάκα να ψάξει για οποιοδήποτε πρόσωπο η άτομο σε ολα τα κινιτα ταυτοχρόνως

  • Like 4
  • Confused 2
Δημοσ. (επεξεργασμένο)

Για να βρει τις "κακές" φωτογραφίες, σημαίνει οτι αναγκαστικά θα "δει" και όλες τις υπόλοιπες - με ποιόν ήσουν χθες, που πήγες, τι έφαγες.... Κι αν ο άλλος είναι μπλεγμένος κάπου, αμέσως αναβαθμίζεσαι σε "person of interest"... Tα άλλα περι σεξουαλικής κακοποίησης είναι για του Βόλου τα εννιάμερα - λες και οι παιδεραστες δεν έμαθαν τώρα οτι θα υπάρχει αυτός ο έλεγχος και θα κυκλοφορούν με τέτοιες φωτογραφίες στο iphone...  Με τις υγείες μας...

Επεξ/σία από Eloy
  • Like 22
  • Thanks 1
  • Confused 1
  • Sad 1
Δημοσ.

Φέτος θα είναι ο έλεγχος για κάτι ειδεχθές οπως η παιδεραστία ,του χρόνου αφού έχουν συνηθήσει όλοι στο νέο status quo θα είναι για κάτι άλλο,μετά για κάτι άλλο κοκ.

Ετσι ξεκινάνε όλα,βήμα βήμα,κρίμα γιατί είχε κάνει μια καλή κίνηση με τις επιλογές που έδινε για τα προσωπικά δεδομένα .Ασε που δεν νομίζω πως θα πιάσει και κανένα αφού είναι γνωστό ότι θα γίνονται τέτοιοι έλεγχοι.

  • Like 4
  • Thanks 1
  • Confused 1
  • Sad 1
Δημοσ.

Βαδιζουμε ταχυτατα σε μια εποχη οπου το σεναριο της ταινιας Minority Report θα μοιαζει παιδικο  αναγνωσμα 

  • Like 3
  • Confused 1
Δημοσ.

Το ότι θα χρησιμοποιηθει για  ένα καλο σκοπό δεν σημαίνει ότι είναι καλή -σωστή ενέργεια ,γιατί στο μέλλον μπορεί η εφαρμογή να χρησιμοποιηθεί και για άλλους "σκοπούς" .

Αν η πάταξη της παιδικής πορνογραφίας περιμένουν να επιτευχθεί μέσω αυτής της εφαρμογής ,κοιμούνται τον ύπνο του δικαίου .

Τα χαρακτηριστικά της σάρωσης κάλλιστα μπορεί να αποκτήσουν διαφορετικές παραμέτρους και να προκαλέσουν πολύ ουσιαστικότερα προβλήματα .

  • Like 8
  • Confused 1
  • Sad 1

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...