ΚΟΙΝΩΝΙΑ

«Συναγερμός» για τις εικόνες ΑΙ σεξουαλικής κακοποίησης παιδιών που κατακλύζουν το διαδίκτυο

Σύμφωνα με ξένη έρευνα οι εικόνες σεξουαλικής κακοποίησης παιδιών -που δημιουργούνται από εργαλεία τεχνητής νοημοσύνης- αναζητούνται όλο και περισσότερο στις μηχανές αναζήτησης

 19/10/2024 23:40

«Συναγερμός» για τις εικόνες ΑΙ σεξουαλικής κακοποίησης παιδιών που κατακλύζουν το διαδίκτυο

Ιδιαίτερο προβληματισμό προκαλούν τα στοιχεία που προέκυψαν από την έρευνα του «Internet Watch Foundation», καθώς αποδεικνύεται ότι οι εικόνες σεξουαλικής κακοποίησης παιδιών -που δημιουργούνται από εργαλεία τεχνητής νοημοσύνης- αναζητούνται όλο και περισσότερο στις μηχανές αναζήτησης.

Με βάση τα στοιχεία, λοιπόν, το πρώτο εξάμηνο του 2024, ο όγκος του παράνομου περιεχομένου τεχνητής νοημοσύνης ξεπέρασε το σύνολο του 2023. Μάλιστα, ιδιαίτερα ανησυχητικό είναι το γεγονός ότι το AI υλικό βρέθηκε σε δημόσιες ιστοσελίδες και όχι στο dark web, όπου έχουν πρόσβαση συγκεκριμένοι χρήστες, σύμφωνα με όσα αναφέρει ο Guardian.

Ο προσωρινός διευθύνων σύμβουλος του Internet Web Foundation, Derek Ray - Hill, υπογράμμισε ότι το επίπεδο πολυπλοκότητας των εικόνων, αποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης είχαν εκπαιδευτεί σε περιεχόμενο με πραγματικά θύματα. «Το πρόβλημα επιδεινώνεται, δεν εξαφανίζεται», σημείωσε χαρακτηριστικά.

«Η κατάσταση έχει φτάσει σε ένα σημείο καμπής», συμπλήρωσε στη συνέχεια ο αναλυτής του IWF, καθώς το περιεχόμενο είναι τόσο αληθοφανές, που δυσκολεύει το έργο των Αρχών, στην προσπάθεια να αντιληφθούν αν πρόκειται για πραγματική κακοποίηση παιδιού ή προϊόν AI.

Το Internet Web Foundation ασχολήθηκε με 74 αναφορές περιεχομένου σεξουαλικής κακοποίησης παιδιών, το οποίο ήταν αρκετά ρεαλιστικό σε βαθμό που παραβίαζε τη βρετανική νομοθεσία. Πέραν των εικόνων τεχνητής νοημοσύνης με αληθινά θύματα, το IWF εξέτασε και «deepfake» βίντεο. Στο παρελθόν, το εν λόγω Ίδρυμα είχε παρουσιάσει στοιχεία ερευνών με υλικό τεχνητής νοημοσύνης, όπου διάσημοι άνθρωποι «μετατρέπονταν» σε μικρά παιδιά, έχοντας ρόλο σε σενάρια παιδικής κακοποίησης. Επιπλέον, εντοπίστηκαν και άλλα παραδείγματα, με εργαλεία τεχνητής νοημοσύνης να χρησιμοποιούνται προκειμένου ντυμένα παιδιά σε φωτογραφίες να εμφανίζονται εντελώς γυμνά.

Οι αλλαγές που θα προωθεί το Instagram

Σύμφωνα με την έκθεση του Internet Web Foundation, τα στοιχεία των τελευταίων έξι μηνών δείχνουν ότι πάνω από το μισό περιεχόμενο φιλοξενείται σε ιστοσελίδες από τις ΗΠΑ και τη Ρωσία, με την Ιαπωνία και την Ολλανδία να έχουν επίσης πολύ υλικό. Το IWF κοινοποιεί τα URL των εν λόγω ιστοσελίδων στην τεχνολογική βιομηχανία, προκειμένου να μπλοκαριστούν και να εμποδιστεί η είσοδος σε αυτές.

Αξίζει να σημειωθεί ότι το Instagram ανακοίνωσε νέα μέτρα για την αντιμετώπιση του «sextortion» (η διαδικασία εξαπάτησης των χρηστών, προκειμένου να στείλουν προσωπικές τους φωτογραφίες σε εγκληματίες, οι οποίοι εμφανίζονται -συνήθως- ως γυναίκες και στη συνέχεια δέχονται απειλές εκβιασμού).

Πλέον το δημοφιλές μέσο κοινωνικής δικτύωσης θέτει σε λειτουργία μια λειτουργία που θα θολώνει κάθε γυμνή εικόνα που αποστέλλεται με μήνυμα, προτρέποντας τους χρήστες να είναι ιδιαίτερα προσεκτικοί. Μόλις ο χρήστης του Instagram λάβει μια γυμνή φωτογραφία, θα έχει την επιλογή να τη δει ή όχι, ενώ θα του έρχεται και μήνυμα που θα αναφέρει ότι υπάρχει η δυνατότητα μπλοκαρίσματος του αποστολέα.

Ιδιαίτερο προβληματισμό προκαλούν τα στοιχεία που προέκυψαν από την έρευνα του «Internet Watch Foundation», καθώς αποδεικνύεται ότι οι εικόνες σεξουαλικής κακοποίησης παιδιών -που δημιουργούνται από εργαλεία τεχνητής νοημοσύνης- αναζητούνται όλο και περισσότερο στις μηχανές αναζήτησης.

Με βάση τα στοιχεία, λοιπόν, το πρώτο εξάμηνο του 2024, ο όγκος του παράνομου περιεχομένου τεχνητής νοημοσύνης ξεπέρασε το σύνολο του 2023. Μάλιστα, ιδιαίτερα ανησυχητικό είναι το γεγονός ότι το AI υλικό βρέθηκε σε δημόσιες ιστοσελίδες και όχι στο dark web, όπου έχουν πρόσβαση συγκεκριμένοι χρήστες, σύμφωνα με όσα αναφέρει ο Guardian.

Ο προσωρινός διευθύνων σύμβουλος του Internet Web Foundation, Derek Ray - Hill, υπογράμμισε ότι το επίπεδο πολυπλοκότητας των εικόνων, αποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης είχαν εκπαιδευτεί σε περιεχόμενο με πραγματικά θύματα. «Το πρόβλημα επιδεινώνεται, δεν εξαφανίζεται», σημείωσε χαρακτηριστικά.

«Η κατάσταση έχει φτάσει σε ένα σημείο καμπής», συμπλήρωσε στη συνέχεια ο αναλυτής του IWF, καθώς το περιεχόμενο είναι τόσο αληθοφανές, που δυσκολεύει το έργο των Αρχών, στην προσπάθεια να αντιληφθούν αν πρόκειται για πραγματική κακοποίηση παιδιού ή προϊόν AI.

Το Internet Web Foundation ασχολήθηκε με 74 αναφορές περιεχομένου σεξουαλικής κακοποίησης παιδιών, το οποίο ήταν αρκετά ρεαλιστικό σε βαθμό που παραβίαζε τη βρετανική νομοθεσία. Πέραν των εικόνων τεχνητής νοημοσύνης με αληθινά θύματα, το IWF εξέτασε και «deepfake» βίντεο. Στο παρελθόν, το εν λόγω Ίδρυμα είχε παρουσιάσει στοιχεία ερευνών με υλικό τεχνητής νοημοσύνης, όπου διάσημοι άνθρωποι «μετατρέπονταν» σε μικρά παιδιά, έχοντας ρόλο σε σενάρια παιδικής κακοποίησης. Επιπλέον, εντοπίστηκαν και άλλα παραδείγματα, με εργαλεία τεχνητής νοημοσύνης να χρησιμοποιούνται προκειμένου ντυμένα παιδιά σε φωτογραφίες να εμφανίζονται εντελώς γυμνά.

Οι αλλαγές που θα προωθεί το Instagram

Σύμφωνα με την έκθεση του Internet Web Foundation, τα στοιχεία των τελευταίων έξι μηνών δείχνουν ότι πάνω από το μισό περιεχόμενο φιλοξενείται σε ιστοσελίδες από τις ΗΠΑ και τη Ρωσία, με την Ιαπωνία και την Ολλανδία να έχουν επίσης πολύ υλικό. Το IWF κοινοποιεί τα URL των εν λόγω ιστοσελίδων στην τεχνολογική βιομηχανία, προκειμένου να μπλοκαριστούν και να εμποδιστεί η είσοδος σε αυτές.

Αξίζει να σημειωθεί ότι το Instagram ανακοίνωσε νέα μέτρα για την αντιμετώπιση του «sextortion» (η διαδικασία εξαπάτησης των χρηστών, προκειμένου να στείλουν προσωπικές τους φωτογραφίες σε εγκληματίες, οι οποίοι εμφανίζονται -συνήθως- ως γυναίκες και στη συνέχεια δέχονται απειλές εκβιασμού).

Πλέον το δημοφιλές μέσο κοινωνικής δικτύωσης θέτει σε λειτουργία μια λειτουργία που θα θολώνει κάθε γυμνή εικόνα που αποστέλλεται με μήνυμα, προτρέποντας τους χρήστες να είναι ιδιαίτερα προσεκτικοί. Μόλις ο χρήστης του Instagram λάβει μια γυμνή φωτογραφία, θα έχει την επιλογή να τη δει ή όχι, ενώ θα του έρχεται και μήνυμα που θα αναφέρει ότι υπάρχει η δυνατότητα μπλοκαρίσματος του αποστολέα.

ΣΧΟΛΙΑ

Επιλέξτε Κατηγορία