Όταν διαβάζεις τη φράση «εφαρμογές της τεχνητής νοημοσύνης» το μυαλό σου πάει πρώτα σε δύσκολα μαθηματικά προβλήματα ή ακόμα και σχέδια με υψηλή καλλιτεχνική αίσθηση, έτσι δεν είναι; Ωραία, ώρα να προσγειωθούμε στην πεζή και… γυμνή deepfake πραγματικότητα. Διότι αυτό ακριβώς είναι: Η πιο δημοφιλής «χρησιμότητα» για την τεχνητή νοημοσύνη μέσα στο 2023 ήταν να γδύσει γυναικεία σώματα! Οι εφαρμογές (apps) και οι ιστοσελίδες που χρησιμοποιούν τεχνητή νοημοσύνη για να παρουσιάσει γυμνές φωτογραφίες γυναικών, παραποιημένες φυσικά από άλλες που παρουσιάζονται ντυμένες, έχουν αυξηθεί δραματικά σε δημοτικότητα.

Κι όταν γράφουμε δραματικά, το εννοούμε: Μόνο τον Σεπτέμβριο, σχεδόν 24 εκατομμύρια άνθρωποι (!) επισκέφτηκαν ιστοσελίδες γδυσίματος (nudity apps), σύμφωνα με την εταιρεία ανάλυσης κοινωνικών δικτύων Graphika. Πολλές από αυτές τις υπηρεσίες ξεγυμνώματος ή «γυμνοποίησης» (ανάλογα από ποια πλευρά το βλέπει κανείς) χρησιμοποιούν δημοφιλή κοινωνικά δίκτυα για μάρκετινγκ.

Για παράδειγμα, από την αρχή του τρέχοντος έτους, ο αριθμός των συνδέσμων που διαφημίζουν τέτοιες εφαρμογές αυξήθηκε περισσότερο από 2.400% στα μέσα κοινωνικής δικτύωσης, συμπεριλαμβανομένων των X και Reddit.

Οι υπηρεσίες χρησιμοποιούν τεχνητή νοημοσύνη για να αναδημιουργήσουν μια εικόνα έτσι ώστε το απολύτως ντυμένο άτομο να παρουσιάζεται γυμνό. Υπάρχει και μπόλικος σεξισμός στην ιστορία μας: Πολλές από αυτές τις υπηρεσίες λειτουργούν μόνο σε γυναίκες.

Αυτές οι εφαρμογές αποτελούν μέρος μιας ανησυχητικής τάσης μη συναινετικής πορνογραφίας που αναπτύσσεται και διανέμεται λόγω της προόδου που κάνει η τεχνητή νοημοσύνη. Στην ουσία επιχειρείται η προώθηση ενός τύπου κατασκευασμένων μέσων που είναι γνωστό ως deepfake πορνογραφία. Η εξάπλωσή του προσκρούει σε σοβαρά νομικά και ηθικά εμπόδια, καθώς οι εικόνες λαμβάνονται συχνά από τα μέσα κοινωνικής δικτύωσης και διανέμονται χωρίς τη συγκατάθεση, τον έλεγχο ή τη γνώση του θέματος.

Η άνοδος της δημοτικότητας αντιστοιχεί στην κυκλοφορία πολλών μοντέλων διάχυσης ανοιχτού κώδικα ή τεχνητής νοημοσύνης που μπορούν να δημιουργήσουν εικόνες που είναι πολύ ανώτερες από αυτές που δημιουργήθηκαν μόλις πριν από λίγα χρόνια. Τα μοντέλα που χρησιμοποιούν οι προγραμματιστές εφαρμογών είναι διαθέσιμα δωρεάν, οπότε ο καθένας μπορεί να ασχοληθεί χωρίς να έχει ιδιαίτερες γνώσεις, ούτε θα χρειαστεί να «επενδύσει» σε ακριβό λογισμικό επεξεργασίας εικόνων, προκειμένου να απολαύσει τα… αποτελέσματα της deepfake δουλειάς του.

Deepfake πορνογραφία και η κάλυψη του χιούμορ

Όσοι ασχολούνται με αυτό, φυσικά, απορρίπτουν την πορνογραφική διάσταση και εστιάζουν στη χιουμοριστική. Μια εικόνα που δημοσιεύτηκε στο X και διαφήμιζε μια τέτοια εφαρμογή χρησιμοποιούσε γλώσσα που υποδηλώνει ότι οι πελάτες μπορούσαν να δημιουργήσουν γυμνές εικόνες και στη συνέχεια να τις στείλουν στο άτομο που απεικονίζεται, προφανώς για να σπάσουν πλάκα. Φυσικά δεν είναι καθόλου αστείο κάτι τέτοιο, μπορεί να λειτουργήσει όχι μόνο πορνογραφικά, αλλά ακόμα και εκβιαστικά και ως bullying, αν ο επεξεργαστής της φωτογραφίας απειλήσει να τη διαδώσει παντού, άσχετα με το αν είναι αληθινή ή όχι.

Οι εκπρόσωποι των μέσων κοινωνικής δικτύωσης τόνισαν ότι οι ιστότοποι απαγορεύουν οποιαδήποτε μη συναινετική κοινοποίηση πλαστού σεξουαλικού υλικού και είχαν απαγορεύσει αρκετούς τομείς ως αποτέλεσμα της έρευνας.

Εκτός από την αύξηση της επισκεψιμότητας, οι υπηρεσίες ισχυρίζονται στις ιστοσελίδες τους ότι προσελκύουν πολλούς πελάτες. Πολλές απ’ αυτές έχουν φτάσει και στο σημείο να χρεώνουν την χρήση της deepfake υπηρεσίας σε ποσά που φτάνουν και τα 10 δολάρια μηνιαίως.

Η μη συναινετική πορνογραφία δημοσίων προσώπων αποτελεί χρόνια τώρα ένα σημαντικό πρόβλημα στο χώρο του διαδικτύου. Οι ειδικοί σε τέτοια θέματα απορρήτου ανησυχούν όλο και περισσότερο ότι η πρόοδος στην τεχνητή νοημοσύνη έχει κάνει το λογισμικό deepfake ευκολότερο και πιο αποτελεσματικό. Πολλά θύματα δεν μαθαίνουν ποτέ για τις εικόνες, αλλά ακόμη και εκείνοι που το κάνουν μπορεί να δυσκολευτούν να ζητήσουν από την επιβολή του νόμου να ερευνήσει ή να βρει κεφάλαια για να ακολουθήσει νομική δράση.

Στις ΗΠΑ π.χ. δεν υπάρχει επί του παρόντος ομοσπονδιακός νόμος που να απαγορεύει τη δημιουργία deepfake πορνογραφίας, αν και η αμερικανική κυβέρνηση φυσικά απαγορεύει τη δημιουργία τέτοιου είδους εικόνων, αλλά μόνο για ανήλικους. Μόλις πριν ένα μήνα ένας παιδοψυχίατρος από τη Βόρεια Καρολίνα καταδικάστηκε σε 40 χρόνια φυλάκιση για χρήση τέτοιας εφαρμογής σε φωτογραφίες ασθενών του. Αυτή ήταν και η πρώτη δίωξη αυτού του είδους, βάσει του νόμου που απαγορεύει τη δημιουργία ψεύτικου υλικού σεξουαλικής κακοποίησης παιδιών.

Πολλές πλατφόρμες μέσων κοινωνικής δικτύωσης προσπαθούν να αυτο-προφυλαχθούν. Το TikTok π.χ. έχει μπλοκάρει τη λέξη-κλειδί «γδύνω», έναν δημοφιλή όρο αναζήτησης που σχετίζεται με τις deepfake υπηρεσίες, προειδοποιώντας όποιον αναζητά τη λέξη ότι μπορεί να σχετίζεται με συμπεριφορά ή περιεχόμενο που παραβιάζει τις οδηγίες του. Κάτι ανάλογο αναμένεται να ακολουθήσουν κι άλλοι. Είναι ένα πρώτο βήμα, αλλά χρειάζονται κι άλλα, αυστηρότερα, ώστε η deepfake πορνογραφία να μην εξελιχθεί σε μάστιγα.

** Με πληροφορίες από TIME.