Μην πιστεύετε πιά,όλα όσα βλέπετε.Η Τεχνολογία δημιουργεί πολλά εργαλεία εξαπάτησης των Αισθήσεών μας.
Αληθοφανή βίντεο με πορνογραφικό υλικό γνωστών ηθοποιών, μεθυσμένοι πολιτικοί και δημόσια πρόσωπα που λένε ασυναρτησίες είναι λίγα από αυτά που μπορούν να διαδοθούν με τεράστιες ταχύτητες, από την ανάδυση μιας τεχνολογίας που χρησιμοποιεί την τεχνητή νοημοσύνη.
"Σερφάρετε" στα μέσα κοινωνικής δικτύωσης και ξαφνικά εμφανίζεται αυτό το βίντεο:
Σε αυτό ο ιδρυτής του Fakebook, Μαρκ Ζάκερμπεργκ, φαίνεται να λέει τα εξής: «Εύχομαι να μπορούσα να συνεχίσω να σας λέω ότι ο σκοπός μας σε αυτήν τη ζωή είναι να συνδέουμε ανθρώπους, αλλά δεν είναι. Αυτό που θέλουμε είναι να προσπαθούμε να προβλέψουμε τις μελλοντικές σας κινήσεις. Το Spectre μου έδειξε πώς να σας χειραγωγώ έτσι ώστε να μοιράζεστε προσωπικά δεδομένα σας και όλα όσα αγαπάτε, δωρεάν. Όσο περισσότερο εκφράζεστε τόσο περισσότερο μας ανήκετε».
Φαντάζομαι ότι το πρώτο που σας έρχεται στο μυαλό είναι «πώς είναι δυνατόν να παρουσιάστηκε δημοσίως για να πει αυτά τα λόγια;».
Παρόλα αυτά μοιάζει αληθινό, σωστά;
Κι όμως δεν είναι.
Πρόκειται για αυτό που ονομάζουν deepfake (από τις λέξεις deep learning και fake), μια τεχνική αυτοματοποιημένης νοημοσύνης (AI) που δίνει τη δυνατότητα μέσα από τη σύνθεση και επεξεργασία πολλών εικόνων να δημιουργηθούν βίντεο γεγονότων που δεν έχουν συμβεί ποτέ. Το συγκεκριμένο βίντεο αποτελεί δημιούργημα ενός καλλιτεχνικού πρότζεκτ, του «Spectre», και στο προφίλ του δημιουργού
Τα περισσότερα deepfakes παρουσιάζουν ένα –συνήθως γνωστό– πρόσωπο το οποίο κινείται, χρησιμοποιώντας τις εκφράσεις ενός άλλου ατόμου. Ο δημιουργός τους ελέγχει το πρόσωπο κάποιου και το κάνει ό,τι θέλει. Για παράδειγμα, μπορείς να έχεις έναν ηθοποιό που μιλάει και οι εκφράσεις του χρησιμοποιούνται για να κινείται το πρόσωπο του Μπαράκ Ομπάμα, όπως στο παρακάτω βίντεο.
Όμως συχνά στην καθημερινότητα ο όρος deepfake αποκτά μια πιο ευρεία έννοια και χρησιμοποιείται για να χαρακτηρίσει οποιοδήποτε βίντεο έχει παραποιηθεί, ή για οποιαδήποτε περίπτωση που χρησιμοποιείται η τεχνητή νοημοσύνη για να δημιουργηθεί ένα ψεύτικο πρόσωπο.
του Atlantic Council, που στοχεύει μεταξύ άλλων στη μελέτη της παραπληροφόρησης και στην έκθεση ψευδών ειδήσεων. Όπως λέει στο inside story, μέσα από τις μελέτες τους στο εργαστήριο δεν έχουν εντοπίσει deepfakes που να στοχεύουν στην παραπληροφόρηση (π.χ. με πολιτικά πρόσωπα). Αυτό το οποίο συνήθως εντοπίζουν είναι ψεύτικα πρόσωπα που δημιουργούνται με την αυτοματοποιημένη τεχνολογία (AI), για να χρησιμοποιηθούν σε ψεύτικα προφίλ, τρολς κλπ. «Αυτά τα πρόσωπα είναι πολύ δύσκολο να εντοπιστούν ότι είναι ψεύτικά (συνήθως οι αυτοματοποιημένοι λογαριασμοί τείνουν να κλέβουν εικόνες από πραγματικούς λογαριασμούς) και μπορούν να δημιουργούνται επ' αόριστον» μας λέει.
, μια πλατφόρμα που εντοπίζει οπτικές απειλές, από το 2018 που ερευνούν το φαινόμενο των deepfakes, ο αριθμός τους διπλασιάζεται ανα εξάμηνο, επιβεβαιώνοντας μια συνεχή εκθετική αύξηση. Τον Ιούνιο του 2020
η πλατφόρμα εντόπισε 49.081 deepfake βίντεο – 330% περισσότερα από τον Ιούλιο του 2019. Τα μισά από αυτά εντοπίστηκαν στην Αμερική και ακολουθούν το Ηνωμένο Βασίλειο και η Νότιος Κορέα.
Πολλά από τα deepfakes που κυκλοφορούν στο διαδίκτυο δημιουργούνται για διασκεδαστικούς σκοπούς. Σε αυτά, πρόσωπα ηθοποιών τοποθετούνται σε ταινίες που δεν συμμετείχαν ποτέ, όπως για παράδειγμα το παρακάτω, όπου το πρόσωπο του Σιλβέστερ Σταλόνε τοποθετείται σε αυτό του Μακάλεϊ Κάλκιν στην ταινία Μόνος στο σπίτι.
Δεν είναι όμως όλα τα βίντεο αστεία. Το φαινόμενο των deepfakes έχει λάβει τερατώδεις διαστάσεις στην βιομηχανία της πορνογραφίας. Πολλές είναι οι περιπτώσεις διασήμων, όπως για παράδειγμα η Σκάρλετ Τζοχάνσον
η Έμμα Γουάτσον κ.ά. που τα πρόσωπά τους έχουν τοποθετηθεί σε ταινίες ερωτικού περιεχομένου εν αγνοία τους.
Πρέπει να τονιστεί όμως ότι δεν είναι κάτι που αφορά μόνο τις διάσημες, των οποίων τα πρόσωπα βρίσκονται σε χιλιάδες φωτογραφίες στο διαδίκτυο. Αυτό αποδεικνύει η υπόθεση της Νοέλ Μαρτίν
, μιας Αυστραλέζας που ξαφνικά ανακάλυψε ότι κάποιος είχε πάρει τις φωτογραφίες του προσώπου της από Facebook και τις είχε βάλει στα σώματα γυναικών σε ερωτικές ταινίες, χρησιμοποιώντας μάλιστα το ονομά της.Τέτοιες περιπτώσεις τείνουν να εμφανίζονται όλο και πιο συχνά. Για παράδειγμα, πρόσφατα εντοπίστηκε ένα bot στο Telegram
σε τέτοιο βαθμό, που σύμφωνα με έκθεση της Sensity, το 96% των deepfakes που εντοπίστηκαν το 2019 αφορούσαν πορνογραφικό υλικό με πρωταγωνίστριες γυναίκες. Άλλωστε έρευνες
έχουν δείξει ότι ανέκαθεν γυναίκες ήταν στην πλειοψηφία τους τα θύματα διαδικτυακής παρακολούθησης (cyber stalking) και πορνογραφικού υλικού που διακινείται χωρίς την συγκατάθεση τους.
Το νομικό κενό
Όπως έχει αναφέρει σε πολλές περιπτώσεις η καθηγήτρια θεμάτων ιδιωτικότητας, ελεύθερης έκφρασης και πολιτικών δικαιωμάτων της Νομικής Σχολής του Πανεπιστημίου της Βοστόνης, Ντανιέλ Σάιτρον
, το πρόβλημα το οποίο αντιμετωπίζουν όσες γίνονται στόχοι τέτοιων βίντεο είναι εξαιρετικά περίπλοκο, αφού δεν υπάρχει επαρκής νομική κάλυψη για την προστασία από deepfakes.
Μέχρι στιγμής ούτε η Ευρωπαϊκή Ένωση έχει συγκεκριμένους νόμους για την καταπολέμηση των deepfakes. Προσπαθούν όμως να καταπολεμήσουν
ευρύτερα την διαδικτυακή παραπληροφόρηση (στην οποία θεωρητικά συγκαταλέγονται και τα deepfakes), όπως για παράδειγμα με τον Κώδικα Πρακτικής για την Παραπληροφόρηση
. Σε αυτόν αναφέρεται, μεταξύ άλλων, ότι οι πλατφόρμες που υπογράφουν τον κώδικα θα πρέπει να έχουν μεριμνήσει ώστε να υπάρχει προστασία των χρηστών από την παραπληροφόρηση και ότι θα υπάρχουν τα κατάλληλα εργαλεία που θα επιτρέπουν στους χρήστες να κάνουν αναφορά περιεχομένου που κρίνουν ότι παραπληροφορεί.
Μπορεί λοιπόν να μην υπάρχουν συγκεκριμένοι νόμοι για αυτήν την κατηγορία βίντεο, όμως υπάρχουν άλλες πτυχές της νομοθεσίας του κάθε κράτους που οι ειδικοί αναφέρουν
ότι θα μπορούσαν να χρησιμοποιηθούν για την προστασία των θυμάτων. Για παράδειγμα: νόμοι που αφορούν την προστασία της εικόνας του ατόμου και τα δικαιώματα πνευματικής ιδιοκτησίας των φωτογραφιών (στην προκειμένη περίπτωση για τις φωτογραφίες που χρησιμοποιούνται για να εκπαιδεύσουν την αυτοματοποιημένη νοημοσύνη). Παράλληλα, αποτρεπτικά μπορεί να λειτουργήσει το ποινικό δίκαιο κάθε κράτους όταν υπάρχουν νόμοι που σχετίζονται με την παρενόχληση μέσω εικόνων χωρίς την συγκατάθεση του εικονιζόμενου ή την κλοπή της ψηφιακής ταυτότητας κάποιου. Η περίπτωση της Αυστραλέζας Νοέλ Μαρτίν συνέβαλε στη δημιουργία νομοσχέδιου που ποινικοποιεί την διάδοση φωτογραφιών χωρίς την συναίνεση του εικονιζόμενου στη Νεά Νότια Ουαλία της Αυστραλίας
Στην άλλη πλευρά του Ατλαντικού, πολύ πρόσφατα ορισμένες πολιτείες υπέγραψαν νομοθεσίες για να περιορίσουν την επιβλαβή χρήση των deepfakes. Στη Βιρτζίνια
το 2019 τροποποίησαν την νομοθεσία τους για την μη συναινετική πορνογραφία, ώστε να περιλαμβάνει τα ψεύτικα βίντεο και φωτογραφίες που μοιάζουν με αληθινά. Στην Καλιφόρνια
την ίδια χρονιά υπογράφηκε νομοθεσία που καθιστά παράνομη για 60 ημέρες πριν από μια εκλογική διαδικασία τη δημιουργία και κυκλοφορία εικόνων, βίντεο και ήχου πολιτικών, που έχουν στόχο να μοιάζουν με αληθινά. Αλλά και στο Τέξας
ποινικοποιήθηκε η χρήση των deepfakes όταν πρόκειται για εκλογές και για κάποιον που έχει σκοπό να βλάψει έναν υποψήφιο ή να επηρεάσει τους ψηφοφόρους.
στο να αντιμετωπιστούν τέτοια φαινόμενα, όπως αναφέρει ο κ. Ανδρουκάιτις: «Κάθε φορά που εφευρίσκεται τεχνολογία με κακούς σκοπούς, εφευρίσκεται τεχνολογία για να την αντιμετωπίσει. Όπως σήμερα υπάρχουν μέθοδοι για να εντοπιστούν εικόνες επεξεργασμένες στο photoshop, αυτοματοποιημένοι λογαριασμοί, διαδικτυακά τρολ, έτσι σίγουρα θα υπάρξει η τεχνολογία που θα αναγνωρίζει αξιόπιστα τα deepfake βίντεο. Ήδη υπάρχουν πολλοί οργανισμοί που δουλέυουν μεθόδους πάνω στο πώς θα το κάνουν, όπως το εργαστήριό μας, το DFRLab. Θα έλεγα ότι είναι ένα ατελείωτο παιχνίδι της γάτας και του ποντικιού».
Πόσο επικίνδυνα είναι τα deepfakes;
«Τα deepfakes είναι σαφέστατα απειλή, και μάλιστα μεγάλη, διότι “επιβεβαιώνεται”, άρα μπορώ να το πιστέψω. Μου δίνουν τα απαραίτητα στοιχεία, ό,τι χρειάζομαι για επιβεβαιώσω αυτά που πιστεύω. Επικυρώνουν ή προσδίδουν την απαιτούμενη αληθοφάνεια, η οποία είναι πολλές φορές ζητούμενο. Αυτό είναι που τα κάνει και πιο επικίνδυνα σε σχέση με τα κανονικά fake news. Η εξάπλωση των deepfakes βασίζεται στο ότι εγώ για παράδειγμα είμαι αποσπασματικός χρήστης της ενημέρωσης και έχω ελλιπείς γνώσεις, άρα είναι πολύ πιο εύκολο να πειστώ με το απαραίτητο υλικό που προβάλλεται ως αληθινό. Σε τι βασίζονται τα fake news; Στο ότι έχω μια αποσπασματική αντίληψη της πραγματικότητας, που έχει να κάνει με το ότι πιθανώς δεν έχω τις απαραίτητες ιστορικές γνώσεις ή τα έχω διδαχθεί στο πόδι. Άρα λοιπόν, όταν μου εμφανίζουν ένα παραποιημένο ιστορικό γεγονός ως πραγματικότητα ή αν δεν έχω τις απαιτούμενες γνώσεις φυσικής, το πιστεύω. Το ζήτημα λοιπόν είναι να αντιμετωπίσουμε όλη αυτή την παραπληροφόρηση η οποία κυκλοφορεί» μας εξηγεί ο Νίκος Παναγιώτου, αναπληρωτής καθηγητής στο Τμήμα Δημοσιογραφίας και ΜΜΕ του ΑΠΘ που έχει ως ερευνητικό ενδιαφέρον μεταξύ άλλων και τα fake news.
Ο κ. Παναγιώτου μοιάζει αισιόδοξος, σε αντίθεση με την δυστοπία που συχνά τα διεθνή ΜΜΕ προβλέπουν για τη μελλοντική μας συνύπαρξη με τα deepfakes. Υπάρχουν φωνές
οι οποίες κάνουν λόγο για ένα κοντινό μέλλον στο οποίο δεν θα μπορούμε πλέον να ξεχωρίσουμε το πραγματικό οπτικοακουστικό υλικό από τα deepfakes. Αντίθετα, ο κ. Παναγιώτου υποστηρίζει ότι «αναδεικνύουν τις ευκαιρίες που υπάρχουν για τη δημοσιογραφία και τη δυνατότητα που υπάρχει για τους δημοσιογράφους να λειτουργήσουν ως "φίλτρα" και να είναι αυτοί που θα πιστοποιούν αν κάτι είναι αληθές ή όχι. Αυτή είναι η ευκαιρία για τη δημοσιογραφία να αναδείξει την χρησιμότητά της και να λειτουργήσει ως ένα επιπλέον φίλτρο για τον πολίτη».
Τι πρέπει να κάνουν οι πολίτες;
Σύμφωνα με τις συμβουλές των κ.κ. Παναγιώτου και Ανδρουκάιτις, όπως και στα fake news, υπάρχουν τρόποι που μπορούν να βοηθήσουν στην αναχαίτιση της διάδοσης της παραπληροφόρησης. Οι πολίτες λοιπόν θα πρέπει:
να κοιτάζουν προσεκτικά τα βίντεο ώστε να καταλάβουν αν υπάρχει κάποια ασυνέχεια (για παράδειγμα ένα πρόσωπο μπορεί να μην ανοιγοκλείνει τα μάτια του ή οι εκφράσεις του προσώπου του μπορεί να είναι περίεργες)
να επιλέγουν προσεκτικά από πού ενημερώνονται – συστήνεται οι πηγές ενημέρωσης να είναι έγκυρα ΜΜΕ
να γίνεται έλεγχος των πηγών και της πληροφορίας που διαβάζουν ή βλέπουν
να απευθύνονται σε δημοσιογράφους και fact-checkers όταν έχουν την υποψία ότι κάτι δεν είναι αληθινό
Τέλος, οι δημοσιογράφοι θα πρέπει να θέσουν ως προτεραιότητα την εγκυρότητα έναντι της ταχύτητας, προκειμένου οι πληροφορίες και τα βίντεο που μοιράζονται να είναι αξιόπιστα.
Αν και στην χώρα μας δεν έχει εντοπιστεί, μέχρι στιγμής τουλάχιστον, κανένα deepfake (άλλωστε τα απλά fake news εξακολουθούν να έχουν πέραση και να κάνουν την δουλειά τους), στην Αμερική έχουν υπάρξει περιπτώσεις που καταδεικνύουν τους κινδύνους που μπορούν να δημιουργηθούν από αυτά τα βίντεο.
Δεν είναι λίγοι αυτοί που τονίζουν ότι η ανάδυση της τεχνολογίας των deepfakes μπορεί να αποτελέσει μια απειλή για τη δημοκρατία
. Φανταστείτε τις συνέπειες που θα μπορούσε να έχει σε μια εκλογική αναμέτρηση η ταχύτατη και ανεξέλεγκτη διάδοση ενός deepfake με έναν από τους υποψηφίους να κάνει κάτι ανεπίτρεπτο, όπως π.χ. να βρίζει μια μειονοτική κοινότητα δυο-τρεις ημέρες πριν τις εκλογές. Σίγουρα θα επηρεάζονταν πολλοί ψηφοφόροι ακόμα και αν διαψεύδονταν το βίντεο ή αν κάποια στιγμή κατέβαινε.
Για παράδειγμα, αν και δεν ήταν σε προεκλογική περίοδο, υπήρξε μεγάλη διάδοση βίντεο της Νάνσι Πελόζι, της πρόεδρου της Βουλής των Αντιπροσώπων των ΗΠΑ, όπου φαίνεται να μιλάει σαν να είναι μεθυσμένη καθώς έχουν επιβραδύνει την ταχύτητα του βίντεο. Μάλιστα τέτοια υλικό έχει προωθηθεί από τους ρεπουμπλικάνους, ακόμα και από τον απερχόμενο πρόεδρο Τραμπ
, δεν θα πρέπει να ξεχνάμε ότι όσο περισσότερο ο κόσμος μαθαίνει για την ύπαρξη των deepfakes και όσο πιο καχύποπτοι γίνονται για αυτά τα οποία βλέπουν, τόσο ευκολότερα κάποιος μπορεί να το χρησιμοποιήσει προς το συμφέρον του. Χαρακτηριστικό παράδειγμα αποτελεί το βίντεο του Τραμπ, στο οποίο ο πρόεδρος των ΗΠΑ έλεγε πως «όταν είσαι σταρ, οι γυναίκες σε αφήνουν να κάνεις τα πάντα. Πιάσ' τες από τα γεννητικά όργανα. Μπορείς να κάνεις τα πάντα». Παρόλο που ο Τραμπ ζήτησε δημόσια συγνώμη, πληροφορίες αναφέρουν
ότι δήλωνε σε έναν γερουσιαστή ότι δεν ήταν αυθεντικό το βίντεο.
«Εγώ θα έλεγα ότι τα deepfakes ακόμη δεν είναι ένα τεράστιο πρόβλημα. Ειδικά αν τα ορίζουμε ως ένα βίντεο στο οποίο έχει υπάρξει τροποποίηση ενός προσώπου ή της φωνής. Υπάρχουν πάρα πολλά deepfakes, όμως εμείς δεν έχουμε δει κανένα από αυτά να χρησιμοποιείται με σκοπό την παραπληροφόρηση» αναφέρει ο κ. Ανδρουκάιτις. «Αυτό το οποίο νομίζω ότι θα αποτελεί μια πρόκληση στο κοντινό μέλλον είναι όταν η αυτοματοποιημένη νοημοσύνη θα μπορεί να δημιουργεί από μόνη της το δικό της human-like περιεχόμενο online. Αυτό θα δημιουργήσει πολλές προκλήσεις σε μια τελείως διαφορετική κλίμακα. Αυτό θα δώσει τη δυνατότητα να συγχωνευτούν μποτς και τρολς σε ένα, να δημιουργηθούν αυτοματοποιημένοι λογαριασμοί που θα μιλάνε για ένα συγκεκριμένο θέμα αλλά και που θα είναι ικανοί να έχουν συζητήσεις με ανθρώπινο τρόπο».
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου