10 Νοεμβρίου, 2025
Τεχνολογία

Οι φωνές τεχνητής νοημοσύνης είναι πλέον αδύνατο να διακριθούν από τις ανθρώπινες

Deepfake audio και ρεαλιστικές φωνές AI θολώνουν τα όρια της πραγματικότητας, προειδοποιούν οι επιστήμονες

Οι περισσότεροι έχουμε ακούσει τις χαρακτηριστικές, επίπεδες φωνές ψηφιακών βοηθών όπως η Siri και η Alexa, πιστεύοντας ότι μπορούμε εύκολα να ξεχωρίσουμε μια τεχνητή φωνή από μια ανθρώπινη. Όμως, νέα επιστημονική μελέτη που δημοσιεύθηκε στην επιθεώρηση PLoS One αποκαλύπτει ότι κάτι τέτοιο δεν ισχύει πλέον: η τεχνολογία έχει προχωρήσει τόσο πολύ, που οι περισσότεροι άνθρωποι δεν μπορούν να διακρίνουν με ακρίβεια ποιες φωνές είναι αληθινές και ποιες έχουν δημιουργηθεί από τεχνητή νοημοσύνη.

Η επικεφαλής της έρευνας, Ναντίν Λαβάν, ανώτερη λέκτορας ψυχολογίας στο Πανεπιστήμιο Queen Mary του Λονδίνου, επισημαίνει πως η καθημερινή μας επαφή με φωνές AI μέσω υπηρεσιών και εφαρμογών έχει «εκπαιδεύσει» τα αυτιά μας, αλλά όχι αρκετά ώστε να ξεχωρίζουμε πάντα το φυσικό από το συνθετικό. «Οι φωνές αυτές δεν είναι ακόμη τέλειες, αλλά πλησιάζουν πολύ στον ανθρώπινο λόγο και η πρόοδος είναι ταχύτατη», σημειώνει.

Στο πλαίσιο της μελέτης, συμμετέχοντες άκουσαν 80 δείγματα ήχου — 40 από ανθρώπινες φωνές και 40 που παρήχθησαν από συστήματα τεχνητής νοημοσύνης. Τα αποτελέσματα ήταν εντυπωσιακά: μόνο το 41% των γενικών AI φωνών αναγνωρίστηκαν σωστά ως μη ανθρώπινες, ενώ το 58% των «κλωνοποιημένων» φωνών –δηλαδή αυτών που βασίστηκαν σε πραγματικά ηχογραφημένες ανθρώπινες φωνές (deepfakes)– εκλήφθηκαν εσφαλμένα ως αυθεντικές. Επιπλέον, ακόμη και οι γνήσιες φωνές αναγνωρίστηκαν σωστά μόλις στο 62% των περιπτώσεων.

Τα ευρήματα δημιουργούν σοβαρές ανησυχίες σε θέματα ηθικής, ασφάλειας και πνευματικών δικαιωμάτων. «Η τεχνολογία αυτή μπορεί να χρησιμοποιηθεί κακόβουλα – από παραβιάσεις φωνητικής ταυτοποίησης σε τράπεζες, μέχρι εξαπάτηση συγγενών μέσω deepfake τηλεφωνικών κλήσεων», προειδοποιεί η Λαβάν. Χαρακτηριστικό είναι το περιστατικό με την Σάρον Μπράιτγουελ, η οποία εξαπατήθηκε και έχασε 15.000 δολάρια, όταν πίστεψε ότι στο τηλέφωνο άκουγε την κόρη της να ζητά βοήθεια για νομικά έξοδα μετά από τροχαίο.

Η τεχνολογία μπορεί επίσης να χρησιμοποιηθεί για τη δημιουργία ψευδών δηλώσεων από πολιτικούς ή διασημότητες. Ήδη έχουν υπάρξει περιστατικά, όπως η παραποίηση της φωνής του πρωθυπουργού του Κουίνσλαντ στην Αυστραλία, που χρησιμοποιήθηκε σε διαφημιστικό βίντεο για απάτη με Bitcoin.

Αξιοσημείωτο είναι ότι οι φωνές AI της μελέτης δεν προήλθαν από υπερσύγχρονα συστήματα. Δημιουργήθηκαν με εμπορικά διαθέσιμο λογισμικό, εκπαιδεύτηκαν με μόλις τέσσερα λεπτά ηχογράφησης και απαιτούσαν ελάχιστες τεχνικές γνώσεις. Αυτό καταδεικνύει πόσο προσβάσιμη έχει γίνει πλέον η δημιουργία ρεαλιστικής φωνής τεχνητής νοημοσύνης.

Παρά τους κινδύνους, η Λαβάν επισημαίνει και τις θετικές δυνατότητες της τεχνολογίας: από την υποστήριξη ατόμων με αναπηρίες, μέχρι τη βελτίωση της εμπειρίας χρηστών σε εκπαιδευτικά και ψηφιακά περιβάλλοντα.

Η τελική διαπίστωση της μελέτης είναι σαφής: η εποχή που οι τεχνητές φωνές αναγνωρίζονταν εύκολα έχει τελειώσει. Οι φωνές AI είναι πλέον πειστικές, προσβάσιμες και εν δυνάμει επικίνδυνες – και η κοινωνία καλείται να διαχειριστεί τις συνέπειες αυτής της τεχνολογικής πραγματικότητας.