fbpx

Η Scarlett Johansson έπεσε θύμα της τεχνολογίας των deepfake videos και πιστεύει πως η καταπολέμηση τους είναι χαμένη υπόθεση

Η αυξανόμενη δημοσιότητα των deepfakes, δηλαδή των πλαστών video που χρησιμοποιώντας τεχνητή νοημοσύνη, μετατρέπονται σε εκπληκτικά πειστικά -αλλά πλαστά- βίντεο, όπου ο πρωταγωνιστής κάνει κάτι στη θέση κάποιου άλλου, έχει κεντρίσει την προσοχή των νομοθετών της Αμερικής.

Χρησιμοποιώντας Generative Adversarial Networks, η τεχνητή νοημοσύνη καταφέρνει να συμπληρώσει τα “κενά” και να φτιάξει ένα αποτέλεσμα το οποίο όσο βελτιώνεται αυτή η τεχνολογία, τόσο δυσκολότερα θα μπορούμε να ξεχωρίζουμε αν είναι αληθινό ή ψεύτικο.

Τα πλαστά βίντεο, θα μπορούσαν να χρησιμοποιηθούν για να στοχεύσουν άτομα για εκβιασμό ή για άλλους καταχρηστικούς σκοπούς, ενώ ο κίνδυνος παραπληροφόρησης εμπεριέχει και πολιτικούς κινδύνους. Τα deepfake κέρδισαν δημοσιότητα όταν χρήστες του Reddit άρχισαν να “αντικαθιστούν” πρόσωπα πορνοστάρ, με πρόσωπα διασημοτήτων.

Ανάμεσα τους και η Scarlett Johansson, που στο παρελθόν έχει πέσει και θύμα διαρροής προσωπικών φωτογραφιών της στο διαδίκτυο. Το πρόσωπο της πρωταγωνιστεί σε ένα βίντεο που έχει συγκεντρώσει πάνω από 1,5 εκατομμύριο προβολές, με την ίδια να έρχεται στο θλιβερό συμπέρασμα πως η προσπάθεια να καταπολεμηθούν τα deepfakes είναι χαμένη υπόθεση.

Παρόλο που κάποια βίντεο μπορούν να θεωρηθούν δυσφήμιση, το γεγονός ότι το περιεχόμενο τους δεν αντιπροσωπεύει την πραγματικότητα, τα καθιστούν μη υποκείμενα στους νόμους περί παραβίασης απορρήτου ή πνευματικού δικαιώματος, ενώ κάποιοι ισχυρίζονται πως προστατεύονται από την ελευθερία έκφρασης (First Amendment).

Σε δηλώσεις της στην Washington Post, η ηθοποιός ανέφερε ότι δεν μπορεί να εμποδίσει κάποιον να κόψει και να επικολλήσει την εικόνα της σε ένα διαφορετικό σώμα και πως ελπίζει πως οι νομοθέτες σε ολόκληρο τον κόσμο θα λάβουν σύντομα δράση και θα αντιμετωπίσουν αυτή την απειλή της όχι μόνο προσωπικής, αλλά και εθνικής ασφάλειας.

Advertisment ad adsense adlogger

Μοιραστείτε το