Στηρίξτε την ποιοτική δημοσιογραφία

Από τα fake news στα deepfake news

Ο «Γάλλος Υπουργός Παιδείας» που του πέφτει το κινητό στην τουαλέτα, ο «Tom Cruise» που κάνει μαγικά και οι προκλήσεις για τη σωστή ενημέρωση, την εθνική ασφάλεια, το κυβερνοέγκλημα και την ελευθερία του λόγου. Χαρακτηριστικά παραδείγματα deepfake βίντεο.

Αφορμή για αυτό το άρθρο είναι ένα χαμηλής ποιότητας βίντεο από το TikTok που έστειλε πριν λίγες μέρες ένας φίλος σε μια ψηφιακή παρέα όπου παρουσιαζόταν ο Γάλλος Υπουργός Εθνικής Παιδείας Jean-Michel Blanquer να μιλά σε δημοσιογράφο του «BFM-TV» από την τουαλέτα του. «Υπάρχουν και χειρότεροι από τους δικούς μας», σκεφτήκαμε και γελάσαμε.

Τελικά, είχαμε καταπιεί στα γρήγορα ένα ψέμα. Όταν το ψάξαμε, αφού το είδαμε σε υψηλότερη ανάλυση και δεν φαινόταν αυθεντικό, βρήκαμε πως το βίντεο ήταν σατιρικό, όπως εξήγησε η «Le Monde» (13/05/2020). Τι μαθαίνουμε όμως αυτό;

Τα fake news με τη μορφή ψευδούς γραπτού λόγου και «πειραγμένης» φωτογραφίας που διαδίδονται αστραπιαία μέσα από τα ΜΜΕ και τα ΜΚΔ δεν είναι η κορύφωση των μορφών παραπληροφόρησης, πλαστοπροσωπίας και προπαγάνδας.

Ο κορεσμός τα τελευταία χρόνια από ψεύτικες ειδήσεις, η μείωση του κύρους των ΜΜΕ αλλά και η ευκολία του «φώτοσοπ» μιας εικόνας αύξησε την ανθεκτικότητα του κοινού μορφής καθώς γνωρίζουν πως η ψευδολογία και η πλαστογραφία, ιδιαίτερα από ανώνυμες ή σκοτεινές πηγές είναι πολύ εύκολη. Μάλιστα, η εκτόξευση της χρήσης των «μιμιδίων» («memes») από την πολιτική αντιπαράθεση μέχρι ακόμη και το αλληλοπείραγμα μεταξύ φίλων δείχνουν πως ο κόσμος γνωρίζει πλέον πως η διαφορά μεταξύ αλήθειας και ψέματος είναι μικρή, οπότε εμπιστοσύνη υπάρχει αν ο παροχέας της πληροφορίας είναι αποδεδειγμένα αξιόπιστος. Και ακόμα και εκεί, πάντα υπάρχει μια ανησυχία.

Ένα είδος πληροφορίας όμως που ακόμα θεωρείται αυθεντικό και που δύσκολα μπορεί να πλαστογραφηθεί είναι το οπτικοακουστικό, κοινώς το βίντεο. Ακόμη, η τεχνολογία παραποίησης ενός βίντεο ή η πλήρης πλαστογραφία του δεν είναι τόσο προσβάσιμη στον μέσο χρήστη οπότε η εμπιστοσύνη σε αυτό δεν έχει μειωθεί όπως έχει μειωθεί στο γραπτό κείμενο ή στην εικόνα.

Με άλλα λόγια, ένας ανώνυμος λογαριασμός (που δεν παρουσιάζεται εξόφθαλμα ως σατιρικός ή τρολλ) που προτρέπει «ΔΕΙΤΕ ΤΟ ΒΙΝΤΕΟ ΤΗΣ ΚΡΥΦΗΣ ΚΑΜΕΡΑΣ ΠΡΙΝ ΤΟ ΚΑΤΕΒΑΣΟΥΝ!!!!111» έχει πιο αυξημένες πιθανότητες να γίνει πιστευτό παρά η αντίστοιχη προτροπή σε κείμενα ή εικόνες.

Τι είναι το deepfake

Ήρθε η ώρα να αναθεωρήσουμε και στο θέμα των βίντεο που κυκλοφορούν διότι από τα fake news περνάμε στα deepfake news.

Ο όρος «deepfake» συνδυάζει τους όρους «deep learning» της τεχνολογίας Τεχνητής Νοημοσύνης (AI) και του «fake».

Όπως αναφέρουν οι J. Kietzmann κ.α. στην πρόσφατη μελέτη τους «Deepfakes: Trick ro treat?» (Business Horizons, τ.63/2, 2020) η τέχνη της πλαστογραφίας περιεχομένου δεν είναι καινούργια, αλλά η διαφορά των deepfakes είναι ότι αξιοποιούν ισχυρές τεχνικές μηχανικής εκμάθησης (machine learning) της τεχνητής νοημοσύνης (TN) για την χειραγώγηση και ή δημιουργία οπτικοακουστικού περιεχομένου με υψηλότατες δυνατότητες εξαπάτησης.

Ήδη η τεχνολογία deepfake έχει χρησιμοποιηθεί για πλαστά πορνογραφικά βίντεο με «πρωταγωνιστές» διάσημους, για στοχοποίηση και εξευτελισμό πρώην εραστών και συζύγων με πλαστά «revenge porn» βίντεο, για fake news κατά πολιτικών, δημοσιογράγων και επιχειρηματιών, φάρσες, κομπίνες και οικονομικές απάτες.

Στα deepfakes, το πρόσωπο του θύματος τροποποιείται για να δημιουργήσει πειστικά «ρεαλιστικά» πλάνα από συμπεριφορές και γεγονότα που ποτέ δεν συνέβησαν.

Ένα πρόσφατο παράδειγμα είναι τα deepfake βίντεο του ηθοποιού Tom Cruise στο TikTok με εκατομμύρια θεάσεις. Τα ψεύτικα βίντεο αναρτήθηκαν από τον λογαριασμό «deeptomcruise» και παρουσιάζουν τον ηθοποιό να κάνει μαγικά κόλπα, να παίζει γκόλφ, να μιλά στην κάμερα, να έχει ένα ατύχημα στο κατάστημα ρούχων και να λέει ένα ανέκδοτο για τον τελευταίο Σοβιετικό ηγέτη Mihail Gorbachev. Σε όλα τα βίντεο ο ψεύτικος «Tom Cruise» γελά με το χαρακτηριστικό του γέλιο, έχει παρόμοιο ύφος και εκφράσεις προσώπου με τον αληθινό χαρακτήρα. Το TikTok δεν κατέβασε τα βίντεο διότι φαινόταν πως πρόκειται για deepfake.

Οι «Times» (02/03/2021) αναφέρουν η τεχνολογία deepfake εμφανίστηκε το 2017 αλλά αυτή τη στιγμή τέτοιας ποιότητας deepfakes είναι μέχρι στιγμής πολύ δύσκολο να γίνουν και πολύ λίγοι έχουν αυτές τις δυνατότητες, ωστόσο η ανάπτυξη της τεχνολογίας είναι ραγδαία.

Deepfakes μεταξύ εθνικής ασφάλειας & ελευθερίας του λόγου

Σε δηλώσεις της στους «Times», η Sandra Watcher, Καθηγήτρια Ηθικής της Τεχνητής Νοημοσύνης στο Internet Institute του Πανεπιστημίου της Οξφόρδης ανέφερε:

«Αν υπάρχει κάτι εκεί έξω που είναι δυνητικά πολύ επιβλαβές για άτομα ή ομάδες, ή μπορεί να αποτελεί απειλή για την εθνική ασφάλεια, τότε προφανώς υπάρχει η ανάγκη παρέμβασης. Αλλά ανησυχώ επίσης αν χάσουμε επαφή με την λεπτή προσέγγιση που χρειάζεται, διότι το βίντεο του Tom Cruise είναι αναμφισβήτητα σάτιρα και δεν θέλουμε να κατεβάζουμε τέτοιο περιεχόμενο όταν πρόκειται για την ελευθερία του λόγου. Αν είναι είναι παράξενο αλλά όχι απαραίτητα επιβλαβές, τότε ίσως είναι πιο σημαντικό να εκπαιδεύσουμε τους ανθρώπους ούτως ώστε να μην ξεγελιούνται από αυτό, παρά να το καταργήσουν.»

Η δυνατότητα αξιολόγησης του εάν ένα βίντεο είναι πλαστό deepfake ή αυθεντικό γίνεται ολοένα και πιο δύσκολη και αυτή τη στιγμή καθίσταται πολύ δύσκολο για τον μέσο χρήστη να το πράξει αυτό από μόνο του.

Για παράδειγμα, σε πρόσφατη μελέτη του Πανεπιστημίου της Καλιφόρνια Σαν Ντιέγκο (SciTechDaily, 09/02/2021) οι ερευνητές κατάφεραν να δημιουργήσουν ψεύτικα βίντεο τα οποίο κατάφεραν να ξεγελάσουν και τα καλύτερα λογισμικά ανίχνευσης («deepfake detectors»).

«Η δουλειά μας δείχνει πως οι επιθέσεις στους ανιχνευτές deepfake μπορεί να γίνει μια πραγματική απειλή για τον κόσμο», ανέφερε η Shehzeen Samarah Hussain, ερευνήτρια στο αμερικανικό Πανεπιστήμιο. «Πιο ανησυχητικό είναι το ότι αποδεικνύουν πως είναι δυνατόν να κατασκευαστούν ισχυρά εχθρικά deepfakes ακόμα και όταν ο εχθρός δεν γνωρίζει τις εσωτερικές λειτουργίες του μοντέλου μηχανικής εκμάθησης που χρησιμοποιεί ο ανιχνευτής», πρόσθεσε.

Άυξηση της δυσπιστίας

Υπάρχει βέβαια και η άλλη πλευρά. Σε ανάλυσή του το περιοδικό «Wired» (14/02/2021) αναφέρει πως απολυταρχικά καθεστώτα μπορούν να χρησιμοποιήσουν την κατηγορία «deepfake» για να σπείρουν τις αμφιβολίες γύρω από αυθεντικά βίντεο που κυκλοφορούν και τεκμηριώνουν καταγγελίες εναντίον τους, όπως για παράδειγμα της αστυνομικής βίας.

Με άλλα λόγια, η ύπαρξη αυτής της τεχνολογίας μπορεί να χρησιμοποιηθεί ως άλλοθι, επιστρατεύοντας την σχετική τεχνική ορολογία, για να υποσκάψει το κύρος σε αυθεντικά βίντεο που τεκμηριώνουν παραβατική και εγκληματική συμπεριφορά.

Ένα τέτοιο παράδειγμα είναι το γνωστό βίντεο της νεαρής κοπέλας που έκανε γυμναστική καθώς εξελισσόταν το πρόσφατο πραξικόπημα στην Μιανμάρ. Επικριτές ανέφεραν πως ήταν ψεύτικο.

Σε ένα άλλο παράδειγμα, φανατικοί συνωμοσιολόγοι οπαδοί του τέως Προέδρου των ΗΠΑ Donald Trump, επηρεασμένοι από τις θεωρείες «Q-Anon», είχαν την πεποίθηση πως η τελευταία του ομιλία ήταν deepfake και πως δεν αποχώρησε ποτέ πραγματικά από την εξουσία.

«Τι να πιστέψουμε πλέον;», θα αναρωτηθεί κάποιος και δεν θα έχει άδικο. Οπωσδήποτε η αύξηση της αμφιβολίας και της δυσπιστίας τα επόμενα χρόνια με την ανάδυση τέτοιων τεχνολογιών είναι αναπόφευκτη και με απρόβλεπτες κοινωνικές προεκτάσεις.

Οπτικο-ακουστική πλαστοπροσωπία

Πρόσφατα, ειδικοί από την ακαδημαϊκή κοινότητα, τον ιδιωτικό τομέα, την Αστυνομία, τον Στρατό και την Κυβέρνηση στη Βρετανία δημοσιοποίησαν τα αποτελέσματα μιας διήμερης συνάντησης εργασίας με στόχο την πρόβλεψη του πώς η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί από τους εγκληματίες του μέλλοντος (βλ. Σημερινή, 10/01/2021, «Τεχνητή Νοημοσύνη και εγκλήματα του μέλλοντος»).

Η τεχνολογία ΤΝ μπορεί να τύχει παράνομης εκμετάλλευσης και να μεταλλάξει το ήδη υπάρχον κυβερνοέγκλημα, ιδιαίτερα τώρα που μεγάλο μέρος της ζωής μας το δαπανούμε στο διαδίκτυο όπου διαχειριζόμαστε τα οικονομικά μας, ψυχαγωγούμαστε, επικοινωνούμε και κτίζουμε (ή χαλούμε…) τη δημόσια εικόνα μας. Με την τάση για τηλεργασία να αυξάνεται, πράγμα που επιτάχυνε σε γιγαντιαία κλίμακα ο καταλύτης του κορωνοϊού, η διαμόρφωση της προσωπικότητάς μας και η εξάρτησή μας από την ψηφιακή νοόσφαιρα αυξάνεται κατακόρυφα, κάνοντάς μας ακόμη πιο ελκυστικά θύματα νέων μορφών κυβερνοεγκλήματος.

Η πλαστοπροσωπία ήχου και βίντεο για εκβιασμό ή εξαπάτηση θυμάτων, αλλά και στα πλαίσια μαύρης ή γκρίζας προπαγάνδας, τοποθετήθηκε στην υψηλότερη θέση της λίστας ως η μεγαλύτερη απειλή. Αυτό θα μπορούσε να γίνει με τη μορφή πλαστοπροσωπίας παιδιών ή συγγενών ενός θύματος και μέσω βιντεοκλήσεων να εκβιάσουν το θύμα και να απαιτήσουν λύτρα. Αυτού του είδους έγκλημα έχει ήδη παρατηρηθεί στο Μεξικό, αλλά με ηθοποιούς που παίζουν τον ρόλο συγγενών αντί ψεύτικου βίντεο ΤΝ. Εκτός βιντεοκλήσεων, με τηλεφωνικές συνομιλίες όπου η ΤΝ καλεί υποψήφια θύματα σε τεράστιους αριθμούς με σκοπό να ζητήσουν πρόσβαση στα συστήματα που διαχειρίζονται.

Αυτού του είδους η τεχνολογία μπορεί να δημιουργήσει επίσης ψεύτικα βίντεο εκλελεγμένων αξιωματούχων, πολιτικών και άλλων δημοσίων προσώπων που να μιλούν ή να ενεργούν με διαφορετικό τρόπο, με σκοπό να επηρεάσουν την κοινή γνώμη. Πολλά τέτοια βίντεο ήδη κυκλοφορούν στο διαδίκτυο. Αυτά, σε συνδυασμό με τα «fake news», μπορούν επίσης να μεταδοθούν αστραπιαία μέσα από τις ανεξέλεγκτες διαδρομές που είναι τα διάφορα μέσα κοινωνικής δικτύωσης.

Υποστηρίξτε τη