Τον τελευταίο χρόνο, η τεχνητή νοημοσύνη, και κυρίως η παραγωγική της όψη (Generative AI), μάς έχει δημιουργήσει μερικές υψηλές προσδοκίες, αλλά και κάποιους νέους πονοκεφάλους. Σήμερα, με το πάτημα ελάχιστων κουμπιών στα κινητά ή στους υπολογιστές μας μπορούμε πραγματικά να μεταμορφώσουμε τα πάντα. Εργαλεία που συνεχώς βελτιώνονται, όπως το Midjourney ή το DALL-E προσφέρουν εκπληκτικές δυνατότητες παραγωγής εικόνων, αρκεί βέβαια να ξέρουμε τι θα τους ζητήσουμε. Στην εποχή της παραγωγικής τεχνητής νοημοσύνης το κλειδί είναι οι σωστές ερωτήσεις· τα λεγόμενα prompts. Δεν είναι τυχαίο που βρίσκεται σε άνοδο η ζήτηση για prompt engineers (κάτι σαν «μηχανικοί ερωτήσεων»). Όσο περισσότερη σαφήνεια, γνώση και φαντασία έχεις, τόσο το καλύτερο. Το γεγονός αυτό βέβαια έχει και την σκοτεινή του όψη, γιατί οι άνθρωποι εκτός από πειράματα με θέματα και τεχνοτροπίες, μπαίνουν στον πειρασμό να κάνουν και πολύ ανήθικα πράγματα, όπως το να προσβάλλουν συνανθρώπους, και να χρησιμοποιούν την εικόνα τους δημοσίως, χωρίς τη συγκατάθεσή τους, σε σκηνές που εκείνοι ποτέ δεν θα ενέκριναν.
Απ’ την πρώτη στιγμή της εμφάνισης των προσιτών εργαλείων παραγωγικής τεχνητής νοημοσύνης, οι υποψιασμένοι γνώριζαν ότι η πορνογραφία θα βρει μια ακόμα αστείρευτη πηγή νέου περιεχομένου. Όταν ο καθένας μπορεί να φτιάξει πανεύκολα απ’ το κινητό του μια πλαστή αλλά αληθοφανή εικόνα, ή ακόμα κι ένα βίντεο, ένα DeepFake όπως έχει ονομαστεί συνολικά το συγκεκριμένο είδος εικονοποιίας, τότε μπαίνουμε σε επικίνδυνα νερά, γιατί ο καθένας μπορεί ουσιαστικά να παραβιάσει την ιδιωτικότητα, και να δυσφημήσει κατάφωρα ένα άλλο πρόσωπο. Όσο θα πληθαίνουν τα περιστατικά χρήσης των εν λόγω εργαλείων, τόσο θα αυξάνεται και η πίεση στις κοινωνίες να βρουν λύσεις, καθώς στο στόχαστρο αυτών των πρακτικών μπαίνουν αθώοι άνθρωποι, κυρίως γυναίκες, αλλά και ανήλικα παιδιά.
Η πρώτη έκρηξη
Τα DeepFakes έγιναν γνωστά το 2017 με το περίφημο βίντεο του Μπαράκ Ομπάμα. Δύο χρόνια μετά, το 2019, ο οργανισμός κυβερονοασφάλειας Deeptrace, δημοσίευσε μια μελέτη που κατέληγε στο ανησυχητικό συμπέρασμα ότι ο αριθμός των DeepFakes είχε διπλασιαστεί μέσα σ’ έναν χρόνο. Και η συντριπτική πλειονότητα των βίντεο ήταν πορνογραφικού περιεχομένου. Ο οργανισμός εντόπισε 14.678 DeepFake βίντεο σε διάφορες πλατφόρμες streaming και ιστοσελίδες πορνογραφικού περιεχομένου, μια αύξηση κατά 100% σε σχέση με την προηγούμενη μέτρηση, το 2018, όπου είχαν εντοπιστεί 7.964 τέτοια βίντεο. Το 96% των πλαστών βίντεο αφορούσε διάσημες κυρίως γυναίκες, ήταν καθαρά πορνογραφικά και μη συναινετικά. Στις τέσσερις πιο δημοφιλείς ιστοσελίδες με Deepfakes, τα βίντεο είχαν συνολικά 134 εκατομμύρια προβολές. Συνολικά, περίπου 850 άτομα, κυρίως διασημότητες γένους θηλυκού αποτέλεσαν στόχο των πλαστών βίντεο.
Τέσσερα χρόνια μετά, η κατάσταση έχει ακολουθήσει την εκθετική τροχιά όλων των σύγχρονων τεχνολογικών φαινομένων. Μια νέα ανάλυση μη συναινετικών πλαστών βίντεο πορνογραφικού περιεχομένου, ήρθε πρόσφατα στη δημοσιότητα, για να δείξει πόσο διαδεδομένα έχουν γίνει τα DeepFakes. Σύμφωνα με τον ερευνητή, ο οποίος ζήτησε απ’ το περιοδικό Wired να διατηρήσει την ανωνυμία του για να αποφύγει τη διαδικτυακή στοχοποίηση, τα τελευταία επτά χρόνια έχουν μεταφορτωθεί τουλάχιστον 244.625 βίντεο στις 35 πιο δημοφιλείς ιστοσελίδες που είτε αποκλειστικά είτε εν μέρει φιλοξενούν πορνογραφικά DeepFake βίντεο. Κατά τους πρώτους εννέα μήνες του 2023, ανέβηκαν στο ίντερνετ 113.000 DeepFakes – μια αύξηση 54% σε σχέση με τα 73.000 βίντεο που ανέβηκαν το 2022. Όπως προβλέπει η ανάλυση, μέχρι το τέλος του 2023 θα έχουν παραχθεί περισσότερα DeepFakes από όσα είχαν εμφανιστεί όλα τα προηγούμενα χρόνια μαζί. Η αιτία της εκθετικής ανόδου είναι προφανής, κι ονομάζεται εκδημοκρατισμός των εργαλείων τεχνητής νοημοσύνης.
Σήμερα, η αυτοματοποιημένη επεξεργασία εικόνων έχει καταστεί παιχνίδι για όλους, και σαν αποτέλεσμα τα DeepFakes δεν αφορούν μόνο τις διασημότητες. Μια νέα εφαρμογή τεχνητής νοημοσύνης για κινητά τηλέφωνα και υπολογιστές, διαφημίζεται με την ατάκα «ξεγυμνώστε όποιον θέλετε». Μπορείς πληρώνοντας ένα μικρό ποσό να ανεβάσεις την φωτογραφία όποιου θέλεις και να τον δεις γυμνό. Σε λίγο, είναι βέβαιο ότι θα ακολουθήσει και το βίντεο. Κανείς σώφρων άνθρωπος δεν θέλει να φανταστεί τι θα ακολουθήσει. Ελλείψει ψηφιακής και μιντιακής παιδείας, και δεδομένου ότι οι εφαρμογές αυτές είναι προσιτές σε εφήβους, είναι πολύ πιθανό να δούμε πολλά, και σίγουρα, έναν συνωστισμό στα δικαστήρια. Εντωμεταξύ, οι εταιρείες τεχνητής νοημοσύνης θα εμπλουτίζουν τις βάσεις δεδομένων τους με τις φωτογραφίες του ανυποψίαστου κοινού των χρηστών.
Θύματα από 11 ετών
«Πρόκειται για κάτι που στοχεύει καθημερινούς ανθρώπους, μαθητές λυκείου, καθημερινούς ενήλικες – έχει γίνει ένα καθημερινό φαινόμενο», σημειώνει η Σόφι Μάντοκς στο Wired, η οποία μελετά τα ψηφιακά δικαιώματα και την κυβερνο-σεξουαλική βία στο Πανεπιστήμιο της Πενσυλβάνιας. «Θα έκανε μεγάλη διαφορά αν καταφέρναμε να καταστήσουμε πιο δύσκολη την πρόσβαση σ’ αυτές τις τεχνολογίες. Δεν θα έπρεπε να χρειάζονται μόνο δύο δευτερόλεπτα για να μπορεί κάποιος να διαπράξει δυνητικά ένα σεξουαλικό έγκλημα».
Τον περασμένο Σεπτέμβριο, οι κάτοικοι μιας μικρής πόλης της νότιας Ισπανίας, της Αλμεντραλέχο, υπέστησαν μαζικά σοκ όταν αποκαλύφθηκε ότι γυμνές φωτογραφίες 20 και πλέον νεαρών κοριτσιών της περιοχής, ηλικίας 11 ως 17 ετών, κυκλοφορούσαν στα μέσα κοινωνικής δικτύωσης χωρίς εκείνα να το γνωρίζουν. Οι φωτογραφίες είχαν δημιουργηθεί από εφαρμογές τεχνητής νοημοσύνης.
«Μια μέρα η κόρη μου γύρισε από το σχολείο και μου είπε “μαμά κυκλοφορούν γυμνόστηθες φωτογραφίες μου”», δήλωσε στο BBC η Μαρία Μπλάνκο Ράγιο, μητέρα μιας 14χρονης. «Τη ρώτησα αν είχε τραβήξει η ίδια γυμνές φωτογραφίες της και μου είπε: “Όχι, μαμά, είναι ψεύτικες φωτογραφίες που κυκλοφορούν πολύ αυτή τη στιγμή· υπάρχουν κι άλλα κορίτσια στην τάξη μου στα οποία έχει συμβεί το ίδιο”». Μετά τις καταγγελίες, ανέλαβαν οι αρχές, οι οποίες εστίασαν την έρευνά τους σε 11 νεαρά αγόρια και στους λογαριασμούς τους σε δημοφιλή κοινωνικά δίκτυα.
Λίγες εβδομάδες πριν τον πανικό που επικράτησε στην Ισπανική κωμόπολη, θορυβημένη απ’ την εκθετική αύξηση αντίστοιχων περιστατικών, η Βρετανική κυβέρνηση ανακοίνωσε ότι πρόκειται να ποινικοποιήσει τη διακίνηση, κι όχι την παραγωγή, Deepfake εικόνων στο διαδίκτυο. Το ίδιο έπραξαν τέσσερις ακόμα πολιτείες των ΗΠΑ, ανάμεσά τους και η Νέα Υόρκη. Οι ιστοσελίδες ωστόσο που φιλοξενούν τέτοια βίντεο ξεφυτρώνουν σαν μανιτάρια. Αρκεί μια απλή αναζήτηση και τα εντοπίζεις αμέσως. Οι λύσεις που προσφέρονται, όπως αυτή της Μάντοκς, ακούγονται εύκολες αλλά στην πράξη δεν είναι, καθώς στο διαδίκτυο υπάρχουν πάντα τρόποι να παρακάμπτονται οι έλεγχοι, και να υπονομεύονται τα φίλτρα και οι δικλείδες ασφαλείας. Βέβαια, στο τέλος οι αρχές νικούν, κι αυτό είναι καθησυχαστικό. Όμως το στίγμα που αφήνει η παραβιαστική χρήση των εργαλείων παραγωγικής τεχνητής νοημοσύνης στις ψυχές και στις ζωές ανύποπτων κι αθώων ανθρώπων – πολλοί απ’ τους οποίους είναι πολύ νέοι – είναι ανεξίτηλο. Για το λόγο αυτό, όπως επισημαίνουν κι άλλοι ειδικοί, χρειάζεται μια πολύπλευρη στρατηγική που θα υποστηρίζεται από μια ευρεία καμπάνια ενημέρωσης. Πάνω απ’ όλα χρειάζονται ισχυρά αντανακλαστικά, και αποφασιστική ενίσχυση της παιδείας. Κάποιοι υποστηρίζουν ότι οι εφαρμογές αυτές θα μπορούσαν και να απαγορευτούν: περισσότερο προκαλούν βλάβες, παρά κάνουν κάτι καλό. Οι εικόνες των DeepFakes είναι πλαστές και αληθοφανείς, οι βλαβερές όμως επιπτώσεις τους στους ανθρώπους είναι πέραν πάσης αμφιβολίας αληθινές.
Πηγή: Καθημερινή
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου