15 Νοεμβρίου, 2025
Τεχνολογία

Η Τεχνητή Νοημοσύνη θολώνει τα όρια ανάμεσα στο ψέμα και την αλήθεια

Το φαινόμενο των ψεύτικων βίντεο που παράγονται από τεχνητή νοημοσύνη δεν αποτελεί πια τεχνολογικό θαύμα ή δημιουργική καινοτομία. Έχει μετατραπεί σε κοινωνικό και νομικό εφιάλτη. Η ικανότητα των αλγορίθμων να δημιουργούν εξαιρετικά ρεαλιστικές εικόνες και βίντεο, όπου πρόσωπα, φωνές και σκηνές φαίνονται αληθινά, απειλεί να διαβρώσει όχι μόνο την έννοια της αλήθειας, αλλά και τους ίδιους τους θεσμούς της δημοκρατίας, της δικαιοσύνης και της κοινωνικής εμπιστοσύνης. Η λέκτορας νομικής του Πανεπιστημίου RMIT της Μελβούρνης, Νικόλ Σάκλετον, θέτει το πρόβλημα με τη σαφήνεια μιας προειδοποίησης: όσο περισσότερο ο κόσμος μαθαίνει για τα ψεύτικα μέσα, τόσο περισσότερο αρχίζει να αμφισβητεί και τα αληθινά.

Η Σάκλετον ονομάζει αυτό το παράδοξο «αντίστροφη απώλεια εμπιστοσύνης». Όσο αυξάνεται η επίγνωση για τα deepfakes, τόσο η κοινωνία αποκτά προδιάθεση δυσπιστίας, τείνοντας να θεωρεί ακόμη και τα πραγματικά αποδεικτικά στοιχεία – βίντεο, ηχητικά, φωτογραφίες – πιθανές παραποιήσεις. Στην ουσία, η τεχνολογία δεν κάνει μόνο τους ανθρώπους να πιστεύουν πράγματα που δεν είναι αληθινά, αλλά τους κάνει να μην πιστεύουν πια τίποτα.

Το πρόβλημα αυτό δεν είναι θεωρητικό. Ήδη, δικηγόροι σε δικαστικές υποθέσεις επικαλούνται τη δυνατότητα της τεχνητής νοημοσύνης για να αμφισβητήσουν πραγματικά βίντεο. Στην υπόθεση της Tesla, για παράδειγμα, η νομική ομάδα της εταιρείας προσπάθησε να απορρίψει βίντεο όπου ο Έλον Μασκ εμφανιζόταν να υπερβάλλει για τις δυνατότητες της αυτόνομης οδήγησης, υποστηρίζοντας ότι το υλικό μπορεί να έχει αλλοιωθεί μέσω τεχνολογίας deepfake. Αντίστοιχα, στην Αυστραλία, ο πρώην αρχηγός της αντιπολίτευσης της Νότιας Αυστραλίας, Ντέιβιντ Σπηρς, ισχυρίστηκε πως βίντεο που τον έδειχνε να εισπνέει λευκή ουσία ήταν ψεύτικο. Αυτές οι περιπτώσεις δείχνουν πόσο εύκολα μπορεί να καταρρεύσει η έννοια του αποδεικτικού υλικού.

Η Σάκλετον εξηγεί πως η τεχνητή νοημοσύνη επιτρέπει στους δράστες ή σε όσους κατηγορούνται για παραβατικές πράξεις να «εργαλειοποιούν την αμφιβολία». Όταν το κοινό έχει ήδη διδαχθεί να αμφισβητεί τα πάντα, ακόμη και τα πιο αδιάσειστα τεκμήρια μπορούν να θεωρηθούν ύποπτα. Πρόκειται για ένα φαινόμενο που οι νομικοί ερευνητές έχουν ονομάσει «το κέρδος του ψεύτη» (liar’s dividend) – την ικανότητα δηλαδή του ψεύτη να ωφελείται από τη διάχυτη δυσπιστία. Όπως σημειώνεται σε πρόσφατο άρθρο της California Law Review, η εποχή των deepfakes έχει δημιουργήσει ένα κοινό προετοιμασμένο να αμφισβητεί ακόμη και την αλήθεια. Όσο περισσότερο οι άνθρωποι φοβούνται να πιστέψουν, τόσο πιο εύκολα οι ψεύτες μπορούν να τους πείσουν ότι η πραγματικότητα είναι ψεύτικη.

Η απειλή αυτή έλαβε νέα διάσταση με την κυκλοφορία του Sora 2 της OpenAI, ενός εργαλείου που μετατρέπει οποιαδήποτε περιγραφή σε ρεαλιστικό βίντεο μέσα σε λίγα λεπτά. Το Sora 2 έγινε η πιο δημοφιλής λήψη στο App Store των ΗΠΑ, με χρήστες να γεμίζουν τα κοινωνικά δίκτυα με απίθανα, αλλά εξαιρετικά πειστικά βίντεο – από εξωγήινους που συμμετέχουν στο MasterChef, μέχρι τον Πίκατσου να αποτυγχάνει σε stand-up κωμωδία. Όμως, η ίδια η τεχνολογία στράφηκε εναντίον της: δεν άργησαν να εμφανιστούν βίντεο που απεικόνιζαν τον διευθύνοντα σύμβουλο της OpenAI, Σαμ Άλτμαν, να κλέβει από καταστήματα ή να φορά στολή ναζί. Η ταχύτητα με την οποία κυκλοφόρησαν και διαδόθηκαν τέτοια βίντεο απέδειξε πόσο ευάλωτη είναι πλέον η έννοια της φήμης και της δημόσιας εικόνας.

Ακόμη και οι νεότερες γενιές, που θεωρούνται εξοικειωμένες με την τεχνολογία, αποδείχθηκαν ευάλωτες στην εξαπάτηση. Μεγάλος αριθμός χρηστών πίστεψε ότι τα βίντεο που παρήγαγε το Sora ήταν πραγματικά. Ακόμη και έγκυρα μέσα ενημέρωσης, όπως το τηλεοπτικό δίκτυο Fox News, έπεσαν στην παγίδα: δημοσίευσαν ρεπορτάζ με «πολίτες» που διαμαρτύρονταν για κοινωνικές περικοπές – πρόσωπα που αποδείχθηκε ότι δεν υπήρχαν καν, αφού είχαν δημιουργηθεί από τεχνητή νοημοσύνη. Το δίκτυο αναγκάστηκε να αποσύρει το ρεπορτάζ και να εκδώσει επανορθωτική ανακοίνωση.

Αν και η OpenAI προσθέτει υδατογραφήματα στα βίντεο που δημιουργεί το Sora, η προστασία αυτή αποδεικνύεται σχεδόν ανώφελη. Υπηρεσίες που αφαιρούν τα υδατογραφήματα είναι ήδη διαθέσιμες, με αποτέλεσμα να μπορεί κανείς εύκολα να διαδώσει ψευδές περιεχόμενο ως αυθεντικό. Έτσι, το ψεύτικο αποκτά την ίδια ισχύ με το αληθινό.

Το αποτέλεσμα είναι μια διπλή κρίση: από τη μία πλευρά, η διάδοση παραποιημένων βίντεο υπονομεύει την εμπιστοσύνη στα μέσα και στην αλήθεια· από την άλλη, η αυξανόμενη δυσπιστία υπονομεύει την εμπιστοσύνη σε κάθε μορφή αποδεικτικού υλικού. Η πραγματικότητα διαλύεται ανάμεσα σε δύο ψευδείς βεβαιότητες – ότι όλα είναι αληθινά ή ότι τίποτα δεν είναι.

Ο κίνδυνος αυτός δεν αφορά μόνο την ιδιωτική ζωή ή τη φήμη μεμονωμένων προσώπων. Οι συνέπειες, όπως προειδοποιεί η California Law Review, είναι πολύ ευρύτερες. Η χειραγώγηση της κοινής γνώμης, η διαστρέβλωση της πολιτικής συζήτησης, η υπονόμευση των εκλογικών διαδικασιών, η διάβρωση της εμπιστοσύνης στους θεσμούς – όλα αυτά αποτελούν ορατές απειλές. Στο πεδίο της ασφάλειας, οι ψεύτικες εικόνες μπορούν να αλλοιώσουν στρατιωτικές επιχειρήσεις ή να προκαλέσουν κρίσεις στις διεθνείς σχέσεις. Ακόμη και η οικονομία μπορεί να πληγεί από ψεύτικες δηλώσεις ή βίντεο ηγετών που προκαλούν αναστάτωση στις αγορές.

Παράλληλα, η OpenAI βρέθηκε αντιμέτωπη με κύμα αντιδράσεων από καλλιτέχνες και οργανισμούς. Ο ηθοποιός Μπράιαν Κράνστον και το συνδικάτο των ηθοποιών των ΗΠΑ (SAG-AFTRA) διαμαρτυρήθηκαν ότι τα πρόσωπά τους χρησιμοποιούνται χωρίς συγκατάθεση. Η εταιρεία ανακοίνωσε νέους κανόνες: απαγορεύεται πλέον η χρήση ψηφιακής αναπαράστασης προσώπων χωρίς ρητή συγκατάθεση. Όμως, ο περιορισμός αυτός ισχύει μόνο για τους ζωντανούς. Έτσι, η πλατφόρμα παραμένει ελεύθερη να δημιουργεί παραποιημένα βίντεο ιστορικών προσωπικοτήτων.

Η οικογένεια του Μάρτιν Λούθερ Κινγκ Τζούνιορ χρειάστηκε να παρέμβει δημόσια για να εξαιρεθεί η μορφή του από τη χρήση στο Sora 2. Μέχρι τότε, κυκλοφορούσαν βίντεο που τον έδειχναν να εκφέρει ρατσιστικά σχόλια ή να συμμετέχει σε εγκληματικές πράξεις. Η OpenAI αποδέχθηκε το αίτημα, αλλά μόνο αφού το θέμα πήρε διεθνείς διαστάσεις. Αντίθετα, βίντεο που παραποιούν τη μορφή του Μάλκολμ Χ εξακολουθούν να κυκλοφορούν, παρουσιάζοντάς τον να κάνει χυδαία αστεία ή να συγκρούεται με τον Κινγκ. Η εταιρεία διευκρίνισε ότι επιτρέπει στους «εξουσιοδοτημένους εκπροσώπους πρόσφατα αποβιωσάντων» να ζητούν εξαίρεση, αλλά δεν δεσμεύεται για ιστορικά πρόσωπα.

Ακόμη πιο ανησυχητική είναι η διάδοση βίντεο που «αναπαριστούν» γεγονότα που δεν συνέβησαν ποτέ. Στο Instagram και στο TikTok υπάρχουν λογαριασμοί αφιερωμένοι σε «ομιλίες» του Τζον Κένεντι ή του Ουίνστον Τσόρτσιλ, που δημιουργούνται εξ ολοκλήρου από το Sora. Για το κοινό, η γραμμή ανάμεσα στην ιστορία και στη φαντασία έχει γίνει δυσδιάκριτη. Αν το 20ό αιώνα οι κυβερνήσεις ανησυχούσαν για την προπαγάνδα, στον 21ο αιώνα η προπαγάνδα θα έχει πρόσωπο, φωνή και βλέμμα – όλα συνθετικά.

Οι νομικοί ερευνητές μιλούν πλέον για «οικοσύστημα της αμφιβολίας». Η παραπληροφόρηση δεν χρειάζεται πια να πείσει κανέναν. Αρκεί να σπείρει την αμφιβολία. Η τεχνολογία που αναπτύχθηκε για δημιουργικότητα και τέχνη μετατρέπεται έτσι σε όπλο αποδόμησης της αλήθειας. Και το πιο ανησυχητικό είναι ότι δεν χρειάζεται καν να την ελέγχουν κυβερνήσεις ή μεγάλες εταιρείες· αρκεί ένας χρήστης με φορητό υπολογιστή.

Η Σάκλετον τονίζει ότι η κοινωνία εισέρχεται σε μια εποχή όπου η τεκμηρίωση παύει να είναι τεκμήριο. Η εικόνα, που κάποτε θεωρούνταν η πιο αξιόπιστη απόδειξη, γίνεται το πιο ύποπτο μέσο. Στην εποχή των deepfakes, το παλιό ρητό «μια εικόνα αξίζει όσο χίλιες λέξεις» αντιστρέφεται: μια ψεύτικη εικόνα μπορεί να ακυρώσει χίλιες αλήθειες.

Η τεχνολογία της τεχνητής νοημοσύνης δεν είναι από μόνη της κακή. Όμως, όταν χρησιμοποιείται χωρίς όρια, χωρίς ηθικό πλαίσιο και χωρίς διαφάνεια, απειλεί να υπονομεύσει τη βάση της εμπιστοσύνης που κρατά τις κοινωνίες όρθιες. Οι πολιτικοί, τα δικαστήρια και τα μέσα ενημέρωσης θα πρέπει να βρουν γρήγορα τρόπους να αντιμετωπίσουν αυτό το νέο περιβάλλον, γιατί η αλήθεια – αν και δεν θα πάψει να υπάρχει – μπορεί να πάψει να γίνεται πιστευτή.

Η California Law Review κλείνει το άρθρο της με μια φράση που μοιάζει με προφητεία: «Η ικανότητα δημιουργίας παραποιημένων βίντεο τεχνητής νοημοσύνης έρχεται σε μια εποχή όπου η προσοχή του κοινού δεν ανήκει πλέον στα έγκυρα μέσα, αλλά σε όποιον μπορεί να φωνάξει πιο δυνατά». Το ψέμα, σήμερα, δεν χρειάζεται να είναι πειστικό· αρκεί να είναι εντυπωσιακό. Και η τεχνητή νοημοσύνη κάνει το ψέμα πιο εντυπωσιακό από ποτέ.