Μετά τις ψευδείς ειδήσεις (fake news) έρχονται τα ψευδή βίντεο (fake videos). Η τεχνολογία της μηχανικής μάθησης άρχισε ήδη να χρησιμοποιείται για να δημιουργηθούν πορνό βιντεοκλίπ, στα οποία πρωταγωνιστούν διάσημες ηθοποιοί του Χόλιγουντ και τραγουδίστριες ποπ. Η τεχνητή νοημοσύνη αντικαθιστά τα πρόσωπα των πραγματικών πρωταγωνιστριών των πορνό φιλμ με εκείνα των ηθοποιών και των τραγουδιστριών.
Έτσι, η Σκάρλετ Γιόχανσον, η Έμα Ουότσον, η Τέιλορ Σουίφτ, η Γκαλ Γκαντότ (Wonder Woman), η Μέιζι Ουίλιαμς (Game of Thrones), η Ντέιζι Ρίντλεϊ (Star Wars) και άλλα «αστέρια» έχουν βρεθεί εν αγνοία τους να κάνουν ακατονόμαστα πράγματα προς τέρψη των χρηστών του διαδικτύου, στους οποίους διανέμονται αυτές οι «δημιουργίες». Τα βιντεοκλίπ είναι συχνά τόσο καλά, που δεν διακρίνονται από μια κανονική πορνοταινία.
Μια ομάδα στον διαδικτυακό τόπο Reddit έχει αφιερώσει μήνες για τη δημιουργία και την εξάπλωση αυτών των ψευδο-πορνοφίλμ, σύμφωνα με τη βρετανική «Γκάρντιαν». Ο «πρωτοπόρος» υπήρξε κάποιος με το όνομα “deepfake”.
Τέτοιες πιο ερασιτεχνικές αντικαταστάσεις προσώπων προσφέρουν διάφορες εφαρμογές όπως το Snapchat, αλλά η ποιότητα της δουλειάς του “deepfake” και των μιμητών του κινείται σε ανώτερο επίπεδο χάρη στο «χεράκι» που έχει βάλει η προχωρημένη τεχνητή νοημοσύνη.
‘Αλλωστε, οι δυνατότητες της τεχνολογίας, έχουν φανεί από το γεγονός ότι ανάλογες αντικαταστάσεις προσώπων (όχι πορνό) έχουν γίνει από ερευνητές σε ειδησεογραφικά βίντεο με διασημότητες της πολιτικής επικαιρότητας.
Ένας άλλος χρήστης του Reddit, ο “deepfakeapp”, κυκλοφόρησε μια εφαρμογή για υπολογιστή, η οποία επιτρέπει σε κάθε χρήστη να δημιουργήσει το δικό του «πονηρό» βιντεοκλίπ. Αν και δεν είναι εύκολη στη χρήση της, καθώς απαιτεί οκτώ έως 12 ώρες επεξεργασίας για να παραχθεί ένα σύντομο «κλιπ», η εφαρμογή έδωσε ώθηση σε μια νέα γενιά «δημιουργών».
Ο “deepfakeapp” έκανε λόγο σε ανάρτησή του στο Motherboard για «μια καλή αρχή» και υποσχέθηκε «νέες βελτιώσεις τις επόμενες μέρες και εβδομάδες». Όπως ανέφερε, «τελικά, θέλω να τη βελτιώσω σε σημείο που οι χρήστες να μπορούν να διαλέγουν ένα βίντεο στον υπολογιστή τους, να ‘κατεβάζουν’ από μία ελεύθερα προσβάσιμη βιβλιοθήκη ένα νευρωνικό (υπολογιστικό) δίκτυο που σχετίζεται με ένα συγκεκριμένο πρόσωπο και μετά να αντικαθιστούν το πρόσωπο του βίντεο με το πάτημα ενός κουμπιού». Τόσο απλά!
Η ευκολία αυτή ήδη δημιουργεί ανησυχίες ότι στο μέλλον δεν θα μπορεί κανείς να εμπιστευθεί όχι μόνο την αξιοπιστία πολλών ειδήσεων, αλλά ούτε των ταινιών ή εν γένει οποιουδήποτε βιντεοσκοπημένου υλικού. Πράγμα καθόλου καλό για τη δημοκρατία, το δημόσιο διάλογο και την κοινή λογική…
Πηγή: ΑΠΕ-ΜΠΕ