Η Apple αργότερα φέτος θα διαθέσει νέα εργαλεία που θα προειδοποιούν τα παιδιά και τους γονείς εάν το παιδί στέλνει ή λαμβάνει φωτογραφίες σεξουαλικού περιεχομένου μέσω της εφαρμογής Messages. Η λειτουργία αυτή αποτελεί μέρος ενός συνόλου νέων τεχνολογιών που εισάγει η Apple με στόχο τον περιορισμό της εξάπλωσης του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM-child sexual abuse material) στις πλατφόρμες και τις υπηρεσίες της Apple.
Στο πλαίσιο αυτών των εξελίξεων, η Apple θα είναι σε θέση να ανιχνεύει εικόνες στις κινητές συσκευές της, όπως το iPhone και το iPad, και σε φωτογραφίες που μεταφορτώνονται στο iCloud, ενώ παράλληλα θα εξακολουθεί να σέβεται το απόρρητο των καταναλωτών.
Η νέα λειτουργία του Messages, εν τω μεταξύ, έχει ως στόχο να δώσει τη δυνατότητα στους γονείς να έχουν έναν πιο ενεργό και ενημερωμένο ρόλο όταν πρόκειται να βοηθήσουν τα παιδιά τους να μάθουν να πλοηγούνται στην διαδικτυακή επικοινωνία. Μέσω μιας ενημερωμένης έκδοσης λογισμικού που θα κυκλοφορήσει αργότερα μέσα στο έτος, το Messages θα μπορεί να χρησιμοποιεί μηχανική μάθηση στη συσκευή για να αναλύει τα συνημμένα εικόνων και να καθορίζουν αν μια φωτογραφία που μοιράζεται είναι σεξουαλική. Αυτή η τεχνολογία δεν απαιτεί από την Apple να έχει πρόσβαση ή να διαβάζει τις ιδιωτικές επικοινωνίες του παιδιού, καθώς όλη η επεξεργασία γίνεται στη συσκευή. Τίποτα δεν μεταφέρεται πίσω στους διακομιστές της Apple στο cloud.
Εάν σε μια συνομιλία ανακαλυφθεί μια ακατάλληλη φωτογραφία, η εικόνα θα μπλοκαριστεί και κάτω από τη φωτογραφία θα εμφανιστεί μια ετικέτα που θα αναφέρει: “Αυτό μπορεί να είναι ακατάλληλο” με έναν σύνδεσμο τον οποίο οι χρήστες θα μπορούν να πατούν για να δουν τη φωτογραφία. Εάν το παιδί επιλέξει να δει τη φωτογραφία, εμφανίζεται μια άλλη οθόνη με περισσότερες πληροφορίες. Εδώ, ένα μήνυμα ενημερώνει το παιδί ότι οι ευαίσθητες φωτογραφίες και τα βίντεο “δείχνουν τα ιδιωτικά μέρη του σώματος που καλύπτονται με μαγιό” και “δεν φταις εσύ, αλλά οι ακατάλληλες φωτογραφίες και τα βίντεο μπορούν να χρησιμοποιηθούν για να σε βλάψουν”.
Υποδηλώνει επίσης ότι το άτομο στη φωτογραφία ή το βίντεο μπορεί να μην ήθελε να το δει και ότι μπορεί να έχει κοινοποιηθεί χωρίς να το γνωρίζει. Αυτές οι προειδοποιήσεις έχουν ως στόχο να βοηθήσουν το παιδί να πάρει τη σωστή απόφαση επιλέγοντας να μην δει το περιεχόμενο.
Ωστόσο, αν το παιδί κάνει κλικ για να δει τη φωτογραφία ούτως ή άλλως, τότε θα του εμφανιστεί μια πρόσθετη οθόνη που θα το ενημερώνει ότι αν επιλέξει να δει τη φωτογραφία, θα ειδοποιηθούν οι γονείς του. Η οθόνη εξηγεί επίσης ότι οι γονείς τους θέλουν να είναι ασφαλείς και προτείνει στο παιδί να μιλήσει σε κάποιον αν νιώσει ότι πιέζεται. Προσφέρει επίσης έναν σύνδεσμο για περισσότερες πηγές για να λάβουν βοήθεια.
Υπάρχει ακόμα μια επιλογή στο κάτω μέρος της οθόνης για την προβολή της φωτογραφίας, αλλά και πάλι, δεν είναι η προεπιλεγμένη επιλογή. Αντιθέτως, η οθόνη έχει σχεδιαστεί με τρόπο ώστε να επισημαίνεται η επιλογή να μην προβάλλεται η φωτογραφία.
Αυτού του είδους τα χαρακτηριστικά θα μπορούσαν να βοηθήσουν στην προστασία των παιδιών από τους δράστες σεξουαλικών επιθέσεων, όχι μόνο με την εισαγωγή τεχνολογίας που διακόπτει τις επικοινωνίες και προσφέρει συμβουλές και πόρους, αλλά και επειδή το σύστημα θα ειδοποιεί τους γονείς. Σε πολλές περιπτώσεις όπου ένα παιδί πλήττεται από έναν κακοποιό, οι γονείς δεν είχαν καν συνειδητοποιήσει ότι το παιδί είχε αρχίσει να μιλάει με το συγκεκριμένο άτομο στο διαδίκτυο ή μέσω τηλεφώνου. Αυτό συμβαίνει επειδή οι παιδεραστές είναι πολύ χειριστικοί και θα προσπαθήσουν να κερδίσουν την εμπιστοσύνη του παιδιού και στη συνέχεια θα το απομονώσουν από τους γονείς του, ώστε να κρατήσουν τις επικοινωνίες μυστικές.
Η τεχνολογία της Apple θα μπορούσε να βοηθήσει, παρεμβαίνοντας, εντοπίζοντας και ειδοποιώντας για την κοινοποίηση ακατάλληλου υλικού.
Ωστόσο, ένας αυξανόμενος όγκος υλικού (CSAM-child sexual abuse material) είναι αυτό που είναι γνωστό ως αυτοδημιούργητο CSAM, ή εικόνες που λαμβάνονται από το παιδί, οι οποίες μπορεί στη συνέχεια να μοιράζονται συναινετικά με τον σύντροφο ή τους συνομηλίκους του παιδιού. Με άλλα λόγια, το sexting ή η ανταλλαγή γυμνών φωτογραφιών. Σύμφωνα με έρευνα του 2019 από την Thorn, μια εταιρεία που αναπτύσσει τεχνολογία για την καταπολέμηση της σεξουαλικής εκμετάλλευσης παιδιών, η πρακτική αυτή έχει γίνει τόσο διαδεδομένη ώστε 1 στα 5 κορίτσια ηλικίας 13 έως 17 ετών δήλωσε ότι έχει μοιραστεί δικές του γυμνές φωτογραφίες, και 1 στα 10 αγόρια έχει κάνει το ίδιο. Όμως το παιδί μπορεί να μην κατανοεί πλήρως πώς το μοίρασμα αυτών των εικόνων το θέτει σε κίνδυνο σεξουαλικής κακοποίησης και εκμετάλλευσης.
Η νέα λειτουργία του Messages θα προσφέρει και εδώ ένα παρόμοιο σύνολο προστασίας. Σε αυτή την περίπτωση, αν ένα παιδί επιχειρήσει να στείλει μια ακατάλληλη φωτογραφία, θα προειδοποιείται πριν από την αποστολή της φωτογραφίας. Οι γονείς μπορούν επίσης να λάβουν ένα μήνυμα εάν το παιδί επιλέξει να στείλει τη φωτογραφία ούτως ή άλλως.
Η Apple αναφέρει ότι η νέα τεχνολογία θα φτάσει ως μέρος μιας ενημέρωσης λογισμικού αργότερα μέσα στο έτος στους λογαριασμούς που έχουν οριστεί ως οικογένειες στο iCloud για iOS 15, iPadOS 15 και macOS στις ΗΠΑ.
Αυτή η ενημέρωση θα περιλαμβάνει και ενημερώσεις για τα Siri και την Search που θα προσφέρουν εκτεταμένη καθοδήγηση και πόρους για να βοηθήσουν τα παιδιά και τους γονείς να παραμείνουν ασφαλείς στο διαδίκτυο και να λάβουν βοήθεια σε περίπτωση που βρεθούν σε μη ασφαλείς καταστάσεις. Για παράδειγμα, οι χρήστες θα μπορούν να ρωτούν τη Siri πώς να αναφέρουν (CSAM-child sexual abuse material) ή εκμετάλλευση παιδιών. Τα Siri and Search θα παρεμβαίνουν επίσης όταν οι χρήστες αναζητούν ερωτήσεις σχετικά με το (CSAM-child sexual abuse material) για να εξηγήσει ότι το θέμα είναι επικίνδυνο και να παρέχει πόρους για να λάβουν βοήθεια.
ή αποκτήστε ετήσια συνδρομή εδώ.