25.4.21

Τα Deepfakes είναι το επόμενο υπερόπλο ψηφιακής επιρροής...



ΒΙΝΤΕΟ...
Ο Νο1 στόχος των δημιουργών deepfake περιεχομένου, αυτή τη στιγμή, δεν είναι ένα πολιτικό πρόσωπο, ο Ντόναλντ Τραμπ ας πούμε, αλλά η ηθοποιός Έμμα Γουάτσον, προφανώς και λόγω της ακτιβιστικής της δράσης.

 Σ’ αυτήν την περίεργη κατάταξη, μια θέση πίσω από τη Βρετανίδα ηθοποιό βλέπουμε την... Irene, τραγουδίστρια από τη Νότια Κορέα και ακολουθούν η Σκάρλετ Γιοχάνσον και η Νάταλι Πόρτμαν. Την πεντάδα συμπληρώνει ο πρώην πρόεδρος της Αμερικής. Μια από τις μεγαλύτερες εταιρείες ανίχνευσης deepfake, η Sensity δημοσιεύει κάθε μήνα μια κατάταξη των δημοσίων προσώπων, με βάση τον αριθμό των deepfake βίντεο, στα οποία απεικονίζονται. Ας πάρουμε όμως τα πράγματα από την αρχή.



ΟΙ ΜΕΓΑΛΥΤΕΡΟΙ ΣΤΟΧΟΙ ΤΩΝ DEEPFAKES, SENSITY.AI

Τι είναι η τεχνολογία deepfake

Τα deepfakes είναι κατασκευασμένα βίντεο (synthetic media), στα οποία το πρόσωπο που απεικονίζεται στο αυθεντικό βίντεο αντικαθίσταται από ένα άλλο, με τη χρήση τεχνητής νοημοσύνης. Στην πραγματικότητα, στα deepfake βίντεο βλέπουμε ένα άτομο –διάσημο ή μη– να κάνει ή να λέει κάτι που ποτέ δεν έκανε ή είπε.

Τα deepfakes εμφανίστηκαν στα τέλη του 2017 και αποτελούν μία από τις πολλές εκφάνσεις της «βαθιάς μάθησης» (deep learning), που επιτρέπει στους υπολογιστές να μαθαίνουν από σύνθετα δεδομένα. Με απλά λόγια λοιπόν, ένα πρόσωπο αντικαθίσταται από ένα άλλο τρομακτικά εύκολα, ειδικά τον τελευταίο χρόνο, με λογισμικό που υπάρχει δωρεάν στο Διαδίκτυο.


Ο αριθμός των deepfake βίντεο πολλαπλασιάζεται χρόνο με τον χρόνο, ενώ η πειστικότητά τους αυξάνεται με ραγδαίους ρυθμούς. Στις αρχές του 2019, τα περισσότερα πλαστά βίντεο είχαν πολλά ψεγάδια, ενώ σήμερα το αποτέλεσμα είναι πιο πιστευτό από ποτέ. Τον Ιανουάριο του 2019 μπορούσε κανείς να βρει 7.964 deepfakes στο Διαδίκτυο, ενώ μόλις εννέα μήνες αργότερα είχαν φτάσει τα 14.678, σύμφωνα με την εταιρεία κυβερνοασφάλειας “Sensity” (τότε γνωστή ως “Deeptrace”).


 

  Όλα άρχισαν στο Reddit

Επιστήμονες χαρακτηρίζουν τα deepfakes ως ιό που ξέφυγε από τα εργαστήρια, καθώς μέχρι τα τέλη του 2017 αυτή η τεχνολογία ήταν αποκλειστικά κτήμα της ερευνητικής κοινότητας. Όλα άλλαξαν όταν ένας χρήστης της διαδικτυακής πλατφόρμας Reddit άρχισε να ανεβάζει ψεύτικα πορνογραφικά βίντεο με διάσημες ηθοποιούς, με πρώτη την Gal Gadot, ακολουθώντας την ίδια μεθοδολογία, αλλά με ανοιχτό κώδικα.

Δεν κινδυνεύουν, όμως, μόνο τα δημόσια πρόσωπα να δουν τον εαυτό τους σε κατασκευασμένο βίντεο. «Σήμερα όλοι μας είμαστε celebrities, διότι εμείς δίνουμε αυτή τη δημοσιότητα στους εαυτούς μας. Όσο πιο ανοιχτά είναι τα προφίλ μας στα μέσα κοινωνικής δικτύωσης και όσο πιο πολλά αιτήματα φιλίας από αγνώστους δεχόμαστε, τόσο πιο πιθανό είναι να πέσουμε θύμα του κάθε επιτήδειου που θα χρησιμοποιήσει τις φωτογραφίες μας», λέει στο VICE η Καλλιόπη Ιωάννου, κλινική εγκληματολόγος και διευθύντρια του Διεθνούς Ινστιτούτου Κυβερνοασφάλειας.

Ο άνθρωπος πίσω από το πρώτο deepfake πολιτικό βίντεο στην Ελλάδα

Στα τέλη του 2019, ένα ερευνητικό deepfake βίντεο κυκλοφόρησε στο ελληνικό διαδίκτυο. Έδειχνε μια πραγματική ομιλία του Κυριάκου Μητσοτάκη στη Βουλή. Στη συνέχεια το πρόσωπό του αντικαταστάθηκε από εκείνο του Αλέξη Τσίπρα. Πριν ξεκινήσει το βίντεο, ξεκαθαρίζεται ότι είναι κατασκευασμένο και ότι φτιάχτηκε για ερευνητικούς σκοπούς από την εταιρεία παραγωγής “Real Creations’’. 

«Αποσκοπούσαμε στο να ξεκινήσουμε τη συζήτηση, να δούμε αν το deepfake αποτέλεσμα είναι τόσο πειστικό, προκειμένου να το χρησιμοποιήσουμε νόμιμα στη διαφήμιση», λέει στο VICE o ιδιοκτήτης της εταιρείας και σκηνοθέτης, Θεόδωρος Τζιάτζιος. «Μετά το βίντεο, υπήρξαν πολύ καλές ιδέες (σ.σ. για εμπορικές χρήσεις του deepfake), αλλά όλα έμειναν σε κουβέντες, δεν προχώρησε κάτι», συμπληρώνει.


 

  Στην «κουζίνα» των δημιουργών deepfakes

Το βίντεο με τους δύο πρωθυπουργούς φτιάχτηκε με το DeepFaceLab, ίσως το πιο διαδεδομένο δωρεάν πρόγραμμα. Όπως λέει ο κ. Τζιάτζιος, «αν καταλάβεις τη λογική του είναι απλή διαδικασία. Βέβαια, πρέπει να γνωρίζεις κάποια πράγματα, σε ό,τι αφορά την επεξεργασία εικόνας και βίντεο, πώς μπορείς δηλαδή να βελτιώσεις το αρχείο που βγάζει το πρόγραμμα, να το καθαρίσεις ή να σβήσεις κάποιες περίεργες σκιές».

«To πρόγραμμα λειτουργεί ως εξής: Θα πρέπει να του παρέχεις ένα πρώτο υλικό, το οποίο θα αναλύσει και θα “μάθει το πρόσωπο” το οποίο θέλεις να τοποθετήσεις στο βίντεο. Μετά, του παρέχεις ένα δεύτερο σετ με εικόνες από το πρόσωπο το οποίο ήδη υπάρχει στο βίντεο. Το πρόγραμμα μαθαίνει αυτά τα δύο σετ από πληροφορίες, δηλαδή το αρχικό πρόσωπο και το πρόσωπο το οποίο θέλεις να βάλεις. Στη συνέχεια μπαίνει το κομμάτι της τεχνητής νοημοσύνης, κατά το οποίο το πρόγραμμα αυτοεκπαιδεύεται, βγάζει δύο διαφορετικές εκδοχές του προσώπου και ρωτάει τον εαυτό του: ποιο από τα δύο είναι πιο πειστικό σε σχέση με το αρχικό, το A ή το B; Το A. Και η διαδικασία συνεχίζεται με τον ίδιο τρόπο. Όσο πιο πολύ χρόνο του δώσεις, τόσο πιο κοντά στο επιθυμητό αποτέλεσμα θα φτάσει.

Για να διαβάσετε ολόκληρο το κείμενο, πατήστε ΕΔΩ...

πηγη VICE

Δεν υπάρχουν σχόλια: