Κυριακή 16 Μαΐου 2021

Μην πιστεύετε πιά,όλα όσα βλέπετε.Η Τεχνολογία δημιουργεί πολλά εργαλεία εξαπάτησης των Αισθήσεών μας.

Αληθοφανή βίντεο με πορνογραφικό υλικό γνωστών ηθοποιών, μεθυσμένοι πολιτικοί και δημόσια πρόσωπα που λένε ασυναρτησίες είναι λίγα από αυτά που μπορούν να διαδοθούν με τεράστιες ταχύτητες, από την ανάδυση μιας τεχνολογίας που χρησιμοποιεί την τεχνητή νοημοσύνη.




"Σερφάρετε" στα μέσα κοινωνικής δικτύωσης και ξαφνικά εμφανίζεται αυτό το βίντεο:

Σε αυτό ο ιδρυτής του Fakebook, Μαρκ Ζάκερμπεργκ, φαίνεται να λέει τα εξής: «Εύχομαι να μπορούσα να συνεχίσω να σας λέω ότι ο σκοπός μας σε αυτήν τη ζωή είναι να συνδέουμε ανθρώπους, αλλά δεν είναι. Αυτό που θέλουμε είναι να προσπαθούμε να προβλέψουμε τις μελλοντικές σας κινήσεις. Το Spectre μου έδειξε πώς να σας χειραγωγώ έτσι ώστε να μοιράζεστε προσωπικά δεδομένα σας και όλα όσα αγαπάτε, δωρεάν. Όσο περισσότερο εκφράζεστε τόσο περισσότερο μας ανήκετε».

Φαντάζομαι ότι το πρώτο που σας έρχεται στο μυαλό είναι «πώς είναι δυνατόν να παρουσιάστηκε δημοσίως για να πει αυτά τα λόγια;».

Παρόλα αυτά μοιάζει αληθινό, σωστά;

Κι όμως δεν είναι.

Πρόκειται για αυτό που ονομάζουν deepfake (από τις λέξεις deep learning και fake), μια τεχνική αυτοματοποιημένης νοημοσύνης (AI) που δίνει τη δυνατότητα μέσα από τη σύνθεση και επεξεργασία πολλών εικόνων να δημιουργηθούν βίντεο γεγονότων που δεν έχουν συμβεί ποτέ. Το συγκεκριμένο βίντεο αποτελεί δημιούργημα ενός καλλιτεχνικού πρότζεκτ, του «Spectre», και στο προφίλ του δημιουργού
Bill Posters | Instagram
 μπορείτε να συναντήσετε τον Μπόρις Τζόνσον
Boris Johnson Deepfake | Bill Posters on Instagram
 να λέει ότι ο Τζέρεμι Κόρμπιν είναι ο μόνος που μπορεί να κάνει την Αγγλία και πάλι μεγάλη, τον πρίγκιπα Κάρολο
Prince Charles reflects on his behaviour towards Princess Diana | Bill Posters on Instagram
 να μιλάει για τη συμπεριφορά του προς την Νταϊάνα και τον Κιμ Γιονγκ Ουν
Kim Jong-un | Bill Posters on Instagram
 να χορεύει στους ρυθμούς της Κ-pop.

Τι είναι τα deepfakes;

Τα περισσότερα deepfakes παρουσιάζουν ένα –συνήθως γνωστό– πρόσωπο το οποίο κινείται, χρησιμοποιώντας τις εκφράσεις ενός άλλου ατόμου. Ο δημιουργός τους ελέγχει το πρόσωπο κάποιου και το κάνει ό,τι θέλει. Για παράδειγμα, μπορείς να έχεις έναν ηθοποιό που μιλάει και οι εκφράσεις του χρησιμοποιούνται για να κινείται το πρόσωπο του Μπαράκ Ομπάμα, όπως στο παρακάτω βίντεο.

Όμως συχνά στην καθημερινότητα ο όρος deepfake αποκτά μια πιο ευρεία έννοια και χρησιμοποιείται για να χαρακτηρίσει οποιοδήποτε βίντεο έχει παραποιηθεί, ή για οποιαδήποτε περίπτωση που χρησιμοποιείται η τεχνητή νοημοσύνη για να δημιουργηθεί ένα ψεύτικο πρόσωπο.

lukas-andriukaitis-1638x2048.jpg

Ο Λούκας Ανδρουκάιτις.
Lukas Andriukaitis | Atlantic Couclil
 είναι αναπληρωτής διευθυντής στο Digital Forensic Research Lab
Digital Forensic Research Lab | Atlantic Council
 του Atlantic Council, που στοχεύει μεταξύ άλλων στη μελέτη της παραπληροφόρησης και στην έκθεση ψευδών ειδήσεων. Όπως λέει στο inside story, μέσα από τις μελέτες τους στο εργαστήριο δεν έχουν εντοπίσει deepfakes που να στοχεύουν στην παραπληροφόρηση (π.χ. με πολιτικά πρόσωπα). Αυτό το οποίο συνήθως εντοπίζουν είναι ψεύτικα πρόσωπα που δημιουργούνται με την αυτοματοποιημένη τεχνολογία (AI), για να χρησιμοποιηθούν σε ψεύτικα προφίλ, τρολς κλπ. «Αυτά τα πρόσωπα είναι πολύ δύσκολο να εντοπιστούν ότι είναι ψεύτικά (συνήθως οι αυτοματοποιημένοι λογαριασμοί τείνουν να κλέβουν εικόνες από πραγματικούς λογαριασμούς) και μπορούν να δημιουργούνται επ' αόριστον» μας λέει.

Αυτό το πρόσωπο δεν είναι υπαρκτό
Για να έχετε μια εικόνα του πόσο δύσκολα μπορεί να κριθεί ένα πρόσωπο ως ψεύτικο, μπορείτε να δείτε τα πρότζεκτ: This person does not existThis person does not exist ή το Which is realWhich is Real.

deep.jpg

Ποιο από τα δύο πρόσωπα είναι υπαρκτό;

Σύμφωνα με τη Sensity
Sensity
, μια πλατφόρμα που εντοπίζει οπτικές απειλές, από το 2018 που ερευνούν το φαινόμενο των deepfakes, ο αριθμός τους διπλασιάζεται ανα εξάμηνο, επιβεβαιώνοντας μια συνεχή εκθετική αύξηση. Τον Ιούνιο του 2020
Deepfake Threat Intelligence: a statistics snapshot from June 2020 | Sensity
 η πλατφόρμα εντόπισε 49.081 deepfake βίντεο – 330% περισσότερα από τον Ιούλιο του 2019. Τα μισά από αυτά εντοπίστηκαν στην Αμερική και ακολουθούν το Ηνωμένο Βασίλειο και η Νότιος Κορέα.

Χάνοντας τον έλεγχο

Πολλά από τα deepfakes που κυκλοφορούν στο διαδίκτυο δημιουργούνται για διασκεδαστικούς σκοπούς. Σε αυτά, πρόσωπα ηθοποιών τοποθετούνται σε ταινίες που δεν συμμετείχαν ποτέ, όπως για παράδειγμα το παρακάτω, όπου το πρόσωπο του Σιλβέστερ Σταλόνε τοποθετείται σε αυτό του Μακάλεϊ Κάλκιν στην ταινία Μόνος στο σπίτι.

Δεν είναι όμως όλα τα βίντεο αστεία. Το φαινόμενο των deepfakes έχει λάβει τερατώδεις διαστάσεις στην βιομηχανία της πορνογραφίας. Πολλές είναι οι περιπτώσεις διασήμων, όπως για παράδειγμα η Σκάρλετ Τζοχάνσον
Scarlett Johansson on fake AI-generated sex videos: ‘Nothing can stop someone from cutting and pasting my image’ | The Washighton PostAI-Assisted Fake Porn Is Here and We’re All Fucked | ViceDeepfake porn is now mainstream. And major sites are cashing in | Wired
 η Έμμα Γουάτσον κ.ά. που τα πρόσωπά τους έχουν τοποθετηθεί σε ταινίες ερωτικού περιεχομένου εν αγνοία τους.

Πρέπει να τονιστεί όμως ότι δεν είναι κάτι που αφορά μόνο τις διάσημες, των οποίων τα πρόσωπα βρίσκονται σε χιλιάδες φωτογραφίες στο διαδίκτυο. Αυτό αποδεικνύει η υπόθεση της Νοέλ Μαρτίν
Deepfake Porn Nearly Ruined My Life | ELLE
, μιας Αυστραλέζας που ξαφνικά ανακάλυψε ότι κάποιος είχε πάρει τις φωτογραφίες του προσώπου της από Facebook και τις είχε βάλει στα σώματα γυναικών σε ερωτικές ταινίες, χρησιμοποιώντας μάλιστα το ονομά της.Τέτοιες περιπτώσεις τείνουν να εμφανίζονται όλο και πιο συχνά. Για παράδειγμα, πρόσφατα εντοπίστηκε ένα bot στο Telegram
Deepfake bot on Telegram is violating women by forging nudes from regular pics | Cnet
 το οποίο συλλέγοντας φωτογραφίες γυναικών από τα μέσα κοινωνικής δικτύωσης παρήγαγε γυμνές φωτογραφίες τους.

Το φαινόμενο έχει ξεφύγει 
Deepfakes are a real political threat. For now, though, they’re mainly used to degrade women | Vox
σε τέτοιο βαθμό, που σύμφωνα με έκθεση της Sensity, το 96% των deepfakes που εντοπίστηκαν το 2019 αφορούσαν πορνογραφικό υλικό με πρωταγωνίστριες γυναίκες. Άλλωστε έρευνες
Nationwide online study of nonconsensual porn victimization and perpetration 2017 | CCRI
 έχουν δείξει ότι ανέκαθεν γυναίκες ήταν στην πλειοψηφία τους τα θύματα διαδικτυακής παρακολούθησης (cyber stalking) και πορνογραφικού υλικού που διακινείται χωρίς την συγκατάθεση τους.

Το νομικό κενό

Όπως έχει αναφέρει σε πολλές περιπτώσεις η καθηγήτρια θεμάτων ιδιωτικότητας, ελεύθερης έκφρασης και πολιτικών δικαιωμάτων της Νομικής Σχολής του Πανεπιστημίου της Βοστόνης, Ντανιέλ Σάιτρον
Danielle Keats Citron
, το πρόβλημα το οποίο αντιμετωπίζουν όσες γίνονται στόχοι τέτοιων βίντεο είναι εξαιρετικά περίπλοκο, αφού δεν υπάρχει επαρκής νομική κάλυψη για την προστασία από deepfakes.

Μέχρι στιγμής ούτε η Ευρωπαϊκή Ένωση έχει συγκεκριμένους νόμους για την καταπολέμηση των deepfakes. Προσπαθούν όμως να καταπολεμήσουν
Tackling online disinformation | European Comission
 ευρύτερα την διαδικτυακή παραπληροφόρηση (στην οποία θεωρητικά συγκαταλέγονται και τα deepfakes), όπως για παράδειγμα με τον Κώδικα Πρακτικής για την Παραπληροφόρηση
Code of Practice on Disinformation | European Comission
. Σε αυτόν αναφέρεται, μεταξύ άλλων, ότι οι πλατφόρμες που υπογράφουν τον κώδικα θα πρέπει να έχουν μεριμνήσει ώστε να υπάρχει προστασία των χρηστών από την παραπληροφόρηση και ότι θα υπάρχουν τα κατάλληλα εργαλεία που θα επιτρέπουν στους χρήστες να κάνουν αναφορά περιεχομένου που κρίνουν ότι παραπληροφορεί.

Tι κάνουν οι πλατφόρμες;
Οι μεγάλες πλατφόρμες έχουν προσπαθήσει να αποτρέψουν την διάδοση των deepfakes. Το Facebook το 2019 με το Deepfake Detection Challenge (DFDC) συνεργάστηκεDeepfake Detection Challenge Dataset | Facebook με ακαδημαϊκούς και ειδικούς για να επιταχύνουν την ανάπτυξη μεθόδων εντοπισμού deepfakes και τον Ιούλιο του 2020 ανακοίνωσαν ότι βίντεο που ταυτοποιούνται ως deepfakes και πληρούν τα κριτήρια που έχουν θέσει, θα διαγράφονται. To TwitterTwitter bans deepfakes and deceptive media ahead of US elections | The Independent από την πλευρά του ανακοίνωσε ότι θα ενημερώνει τους χρήστες όταν μια ανάρτηση περιλαμβάνει παραποιημένο οπτικοακουστικό υλικό. Παράλληλα η MicrosoftDeepfake detection tool unveiled by Microsoft | BBC έχει αναπτύξει εργαλεία για την αντιμετώπιση των deepfakes και η GoogleGoogle makes deepfakes to fight deepfakes | BBC βάσεις δεδομένων προκειμένου να βοηθήσει τους ερευνητές.

Μπορεί λοιπόν να μην υπάρχουν συγκεκριμένοι νόμοι για αυτήν την κατηγορία βίντεο, όμως υπάρχουν άλλες πτυχές της νομοθεσίας του κάθε κράτους που οι ειδικοί αναφέρουν
Deepfakes: An EU and U.S. perspective | Lexology
 ότι θα μπορούσαν να χρησιμοποιηθούν για την προστασία των θυμάτων. Για παράδειγμα: νόμοι που αφορούν την προστασία της εικόνας του ατόμου και τα δικαιώματα πνευματικής ιδιοκτησίας των φωτογραφιών (στην προκειμένη περίπτωση για τις φωτογραφίες που χρησιμοποιούνται για να εκπαιδεύσουν την αυτοματοποιημένη νοημοσύνη). Παράλληλα, αποτρεπτικά μπορεί να λειτουργήσει το ποινικό δίκαιο κάθε κράτους όταν υπάρχουν νόμοι που σχετίζονται με την παρενόχληση μέσω εικόνων χωρίς την συγκατάθεση του εικονιζόμενου ή την κλοπή της ψηφιακής ταυτότητας κάποιου. Η περίπτωση της Αυστραλέζας Νοέλ Μαρτίν συνέβαλε στη δημιουργία νομοσχέδιου που ποινικοποιεί την διάδοση φωτογραφιών χωρίς την συναίνεση του εικονιζόμενου στη Νεά Νότια Ουαλία της Αυστραλίας
Five rising stars to change the world: Thea Kurniawan, Tye Gerrard, Noelle Martin, Andrew Tilley and Calum Braham | The West AustralianDeepfake Porn Nearly Ruined My Life | ELLE
.

Στην άλλη πλευρά του Ατλαντικού, πολύ πρόσφατα ορισμένες πολιτείες υπέγραψαν νομοθεσίες για να περιορίσουν την επιβλαβή χρήση των deepfakes. Στη Βιρτζίνια
Virginia’s ‘revenge porn’ laws now officially cover deepfakes | The Verge
 το 2019 τροποποίησαν την νομοθεσία τους για την μη συναινετική πορνογραφία, ώστε να περιλαμβάνει τα ψεύτικα βίντεο και φωτογραφίες που μοιάζουν με αληθινά. Στην Καλιφόρνια
California makes ‘deepfake’ videos illegal, but law may be hard to enforce | The Guardian
 την ίδια χρονιά υπογράφηκε νομοθεσία που καθιστά παράνομη για 60 ημέρες πριν από μια εκλογική διαδικασία τη δημιουργία και κυκλοφορία εικόνων, βίντεο και ήχου πολιτικών, που έχουν στόχο να μοιάζουν με αληθινά. Αλλά και στο Τέξας
Texas is first state to ban political ‘deepfake’ videos | San Antonio express news
 ποινικοποιήθηκε η χρήση των deepfakes όταν πρόκειται για εκλογές και για κάποιον που έχει σκοπό να βλάψει έναν υποψήφιο ή να επηρεάσει τους ψηφοφόρους.

Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security | SSRN
 όμως που εντοπίζεται σε κάθε περίπτωση είναι η τεράστια δυσκολία για τον εντοπισμό και την ταυτοποίηση του δράστη.

Πέρα από το νομικό κομμάτι, μια ελπίδα είναι πως η ίδια η τεχνολογία βοηθάει
How fake-porn opponents are fighting back | The Washington Post
 στο να αντιμετωπιστούν τέτοια φαινόμενα, όπως αναφέρει ο κ. Ανδρουκάιτις: «Κάθε φορά που εφευρίσκεται τεχνολογία με κακούς σκοπούς, εφευρίσκεται τεχνολογία για να την αντιμετωπίσει. Όπως σήμερα υπάρχουν μέθοδοι για να εντοπιστούν εικόνες επεξεργασμένες στο photoshop, αυτοματοποιημένοι λογαριασμοί, διαδικτυακά τρολ, έτσι σίγουρα θα υπάρξει η τεχνολογία που θα αναγνωρίζει αξιόπιστα τα deepfake βίντεο. Ήδη υπάρχουν πολλοί οργανισμοί που δουλέυουν μεθόδους πάνω στο πώς θα το κάνουν, όπως το εργαστήριό μας, το DFRLab. Θα έλεγα ότι είναι ένα ατελείωτο παιχνίδι της γάτας και του ποντικιού».

Πόσο επικίνδυνα είναι τα deepfakes;

«Τα deepfakes είναι σαφέστατα απειλή, και μάλιστα μεγάλη, διότι “επιβεβαιώνεται”, άρα μπορώ να το πιστέψω. Μου δίνουν τα απαραίτητα στοιχεία, ό,τι χρειάζομαι για επιβεβαιώσω αυτά που πιστεύω. Επικυρώνουν ή προσδίδουν την απαιτούμενη αληθοφάνεια, η οποία είναι πολλές φορές ζητούμενο. Αυτό είναι που τα κάνει και πιο επικίνδυνα σε σχέση με τα κανονικά fake news. Η εξάπλωση των deepfakes βασίζεται στο ότι εγώ για παράδειγμα είμαι αποσπασματικός χρήστης της ενημέρωσης και έχω ελλιπείς γνώσεις, άρα είναι πολύ πιο εύκολο να πειστώ με το απαραίτητο υλικό που προβάλλεται ως αληθινό. Σε τι βασίζονται τα fake news; Στο ότι έχω μια αποσπασματική αντίληψη της πραγματικότητας, που έχει να κάνει με το ότι πιθανώς δεν έχω τις απαραίτητες ιστορικές γνώσεις ή τα έχω διδαχθεί στο πόδι. Άρα λοιπόν, όταν μου εμφανίζουν ένα παραποιημένο ιστορικό γεγονός ως πραγματικότητα ή αν δεν έχω τις απαιτούμενες γνώσεις φυσικής, το πιστεύω. Το ζήτημα λοιπόν είναι να αντιμετωπίσουμε όλη αυτή την παραπληροφόρηση η οποία κυκλοφορεί» μας εξηγεί ο Νίκος Παναγιώτου, αναπληρωτής καθηγητής στο Τμήμα Δημοσιογραφίας και ΜΜΕ του ΑΠΘ που έχει ως ερευνητικό ενδιαφέρον μεταξύ άλλων και τα fake news.

Ο κ. Παναγιώτου μοιάζει αισιόδοξος, σε αντίθεση με την δυστοπία που συχνά τα διεθνή ΜΜΕ προβλέπουν για τη μελλοντική μας συνύπαρξη με τα deepfakes. Υπάρχουν φωνές
Welcome to the age of uncertainty | Politico
 οι οποίες κάνουν λόγο για ένα κοντινό μέλλον στο οποίο δεν θα μπορούμε πλέον να ξεχωρίσουμε το πραγματικό οπτικοακουστικό υλικό από τα deepfakes. Αντίθετα, ο κ. Παναγιώτου υποστηρίζει ότι «αναδεικνύουν τις ευκαιρίες που υπάρχουν για τη δημοσιογραφία και τη δυνατότητα που υπάρχει για τους δημοσιογράφους να λειτουργήσουν ως "φίλτρα" και να είναι αυτοί που θα πιστοποιούν αν κάτι είναι αληθές ή όχι. Αυτή είναι η ευκαιρία για τη δημοσιογραφία να αναδείξει την χρησιμότητά της και να λειτουργήσει ως ένα επιπλέον φίλτρο για τον πολίτη».

Τι πρέπει να κάνουν οι πολίτες;
Σύμφωνα με τις συμβουλές των κ.κ. Παναγιώτου και Ανδρουκάιτις, όπως και στα fake news, υπάρχουν τρόποι που μπορούν να βοηθήσουν στην αναχαίτιση της διάδοσης της παραπληροφόρησης. Οι πολίτες λοιπόν θα πρέπει:
  • να κοιτάζουν προσεκτικά τα βίντεο ώστε να καταλάβουν αν υπάρχει κάποια ασυνέχεια (για παράδειγμα ένα πρόσωπο μπορεί να μην ανοιγοκλείνει τα μάτια του ή οι εκφράσεις του προσώπου του μπορεί να είναι περίεργες)

  • να επιλέγουν προσεκτικά από πού ενημερώνονται – συστήνεται οι πηγές ενημέρωσης να είναι έγκυρα ΜΜΕ

  • να γίνεται έλεγχος των πηγών και της πληροφορίας που διαβάζουν ή βλέπουν

  • να απευθύνονται σε δημοσιογράφους και fact-checkers όταν έχουν την υποψία ότι κάτι δεν είναι αληθινό

Τέλος, οι δημοσιογράφοι θα πρέπει να θέσουν ως προτεραιότητα την εγκυρότητα έναντι της ταχύτητας, προκειμένου οι πληροφορίες και τα βίντεο που μοιράζονται να είναι αξιόπιστα.

Αν και στην χώρα μας δεν έχει εντοπιστεί, μέχρι στιγμής τουλάχιστον, κανένα deepfake (άλλωστε τα απλά fake news εξακολουθούν να έχουν πέραση και να κάνουν την δουλειά τους), στην Αμερική έχουν υπάρξει περιπτώσεις που καταδεικνύουν τους κινδύνους που μπορούν να δημιουργηθούν από αυτά τα βίντεο.

Δεν είναι λίγοι αυτοί που τονίζουν ότι η ανάδυση της τεχνολογίας των deepfakes μπορεί να αποτελέσει μια απειλή για τη δημοκρατία
The rise of the deepfake and the threat to democracy | The Guardian
. Φανταστείτε τις συνέπειες που θα μπορούσε να έχει σε μια εκλογική αναμέτρηση η ταχύτατη και ανεξέλεγκτη διάδοση ενός deepfake με έναν από τους υποψηφίους να κάνει κάτι ανεπίτρεπτο, όπως π.χ. να βρίζει μια μειονοτική κοινότητα δυο-τρεις ημέρες πριν τις εκλογές. Σίγουρα θα επηρεάζονταν πολλοί ψηφοφόροι ακόμα και αν διαψεύδονταν το βίντεο ή αν κάποια στιγμή κατέβαινε.

Για παράδειγμα, αν και δεν ήταν σε προεκλογική περίοδο, υπήρξε μεγάλη διάδοση βίντεο της Νάνσι Πελόζι, της πρόεδρου της Βουλής των Αντιπροσώπων των ΗΠΑ, όπου φαίνεται να μιλάει σαν να είναι μεθυσμένη καθώς έχουν επιβραδύνει την ταχύτητα του βίντεο. Μάλιστα τέτοια υλικό έχει προωθηθεί από τους ρεπουμπλικάνους, ακόμα και από τον απερχόμενο πρόεδρο Τραμπ
Distorted Videos of Nancy Pelosi Spread on Facebook and Twitter, Helped by Trump | TNYT
.

Το Facebook, πλατφόρμα στην οποία κυκλοφόρησαν τέτοια βίντεο, παραδέχτηκε
Facebook CEO: Company Was Too Slow to Respond to Pelosi Deepfake | The Bloomberg
 μέσω του Μάρκ Ζάκερμπεργκ ότι έδρασαν αργά και δεν τα κατέβασαν εγκαίρως.

Από την άλλη πλευρά, όπως τονίζει η Ντανιέλ Σάιτρον
Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security | SSRN
, δεν θα πρέπει να ξεχνάμε ότι όσο περισσότερο ο κόσμος μαθαίνει για την ύπαρξη των deepfakes και όσο πιο καχύποπτοι γίνονται για αυτά τα οποία βλέπουν, τόσο ευκολότερα κάποιος μπορεί να το χρησιμοποιήσει προς το συμφέρον του. Χαρακτηριστικό παράδειγμα αποτελεί το βίντεο του Τραμπ, στο οποίο ο πρόεδρος των ΗΠΑ έλεγε πως «όταν είσαι σταρ, οι γυναίκες σε αφήνουν να κάνεις τα πάντα. Πιάσ' τες από τα γεννητικά όργανα. Μπορείς να κάνεις τα πάντα». Παρόλο που ο Τραμπ ζήτησε δημόσια συγνώμη, πληροφορίες αναφέρουν 
Why Trump Stands by Roy Moore, Even as It Fractures His Party | TNYT
ότι δήλωνε σε έναν γερουσιαστή ότι δεν ήταν αυθεντικό το βίντεο.

«Εγώ θα έλεγα ότι τα deepfakes ακόμη δεν είναι ένα τεράστιο πρόβλημα. Ειδικά αν τα ορίζουμε ως ένα βίντεο στο οποίο έχει υπάρξει τροποποίηση ενός προσώπου ή της φωνής. Υπάρχουν πάρα πολλά deepfakes, όμως εμείς δεν έχουμε δει κανένα από αυτά να χρησιμοποιείται με σκοπό την παραπληροφόρηση» αναφέρει ο κ. Ανδρουκάιτις. «Αυτό το οποίο νομίζω ότι θα αποτελεί μια πρόκληση στο κοντινό μέλλον είναι όταν η αυτοματοποιημένη νοημοσύνη θα μπορεί να δημιουργεί από μόνη της το δικό της human-like περιεχόμενο online. Αυτό θα δημιουργήσει πολλές προκλήσεις σε μια τελείως διαφορετική κλίμακα. Αυτό θα δώσει τη δυνατότητα να συγχωνευτούν μποτς και τρολς σε ένα, να δημιουργηθούν αυτοματοποιημένοι λογαριασμοί που θα μιλάνε για ένα συγκεκριμένο θέμα αλλά και που θα είναι ικανοί να έχουν συζητήσεις με ανθρώπινο τρόπο».

Δεν υπάρχουν σχόλια: