...

Logo Yotel Air CDG
in partnership with
Logo Nextory

Τεχνητές φωνές: Οι περισσότεροι άνθρωποι δεν μπορούν πια να ξεχωρίσουν την ΑΙ από την ανθρώπινη φωνή

• Oct 13, 2025, 5:58 AM
2 min de lecture
1

Η τεχνητή νοημοσύνη (ΑΙ) έχει γίνει πλέον αναπόσπαστο κομμάτι της καθημερινής ζωής. Τη βλέπουμε στα φίλτρα των κοινωνικών δικτύων, της μιλάμε μέσω μεγάλων γλωσσικών μοντέλων και την ακούμε κάθε φορά που η Alexa της Amazon ενεργοποιείται για να εκτελέσει μια εντολή. Όμως, όσο η τεχνολογία εξελίσσεται, τόσο πιο δύσκολο γίνεται να ξεχωρίσουμε τι είναι αληθινό και τι όχι.

Σε νέα μελέτη που δημοσιεύθηκε στο περιοδικό PLoS One, οι ερευνητές διαπίστωσαν ότι οι περισσότεροι άνθρωποι δεν μπορούν πλέον να διακρίνουν τις φωνές που παράγονται από ΑΙ από τις ανθρώπινες φωνές που έχουν κλωνοποιηθεί.

Οι συμμετέχοντες άκουσαν 80 διαφορετικά δείγματα φωνών, τα μισά τεχνητά και τα υπόλοιπα ανθρώπινα, και κλήθηκαν να τα αξιολογήσουν με βάση το πόσο “αξιόπιστα” ή “κυριαρχικά” ακούγονταν.

Το 58 τοις εκατό των ανθρώπων που έλαβαν μέρος στη μελέτη θεώρησαν λανθασμένα τις AI-κλωνοποιημένες φωνές ως πραγματικές.
Το 58% των ατόμων που συμμετείχαν στη μελέτη θεώρησαν λανθασμένα τις φωνές που είχαν κλωνοποιηθεί από την τεχνητή νοημοσύνη ως πραγματικές. Canva

Στην κατηγορία των ΑΙ υπήρχαν δύο είδη: γενικές συνθετικές φωνές που δημιουργήθηκαν από το μηδέν και φωνές που είχαν κλωνοποιηθεί από πραγματικούς ανθρώπους.

Ενώ οι περισσότεροι αναγνώρισαν ότι οι γενικές φωνές ήταν ψεύτικες, οι φωνές-κλώνοι μπέρδεψαν τους συμμετέχοντες, με 58% να πιστεύει ότι ήταν αληθινές. Αντίθετα, 62% των πραγματικών φωνών αναγνωρίστηκαν σωστά ως ανθρώπινες — μια πολύ μικρή διαφορά.

«Το σημαντικότερο εύρημα είναι ότι οι φωνές που παράγονται από ΑΙ, ειδικά οι κλωνοποιημένες, ακούγονται εξίσου ανθρώπινες με τις πραγματικές», εξηγεί η Δρ. Νατίν Λάβαν, επικεφαλής της έρευνας και ανώτερη λέκτορας ψυχολογίας στο Πανεπιστήμιο Queen Mary του Λονδίνου, μιλώντας στο Euronews Next.

«Αυτό είναι εντυπωσιακό, γιατί χρησιμοποιήσαμε εμπορικά διαθέσιμα εργαλεία — οποιοσδήποτε μπορεί να δημιουργήσει ρεαλιστικές φωνές χωρίς να ξοδέψει πολλά χρήματα ή να έχει τεχνικές γνώσεις», πρόσθεσε.

Φωνές απάτης

Η τεχνολογία κλωνοποίησης φωνής λειτουργεί αναλύοντας και αναπαράγοντας βασικά χαρακτηριστικά μιας φωνής. Λόγω της ακρίβειας αυτής, έχει γίνει εργαλείο τηλεφωνικών απατών, καθώς οι απατεώνες χρησιμοποιούν φωνές που μιμούνται αγαπημένα πρόσωπα, αντλώντας συχνά δείγματα από τα μέσα κοινωνικής δικτύωσης.

Οι ηλικιωμένοι είναι οι πιο ευάλωτοι. Σύμφωνα με έρευνα του Πανεπιστημίου του Πόρτσμουθ, δύο στους τρεις άνω των 75 ετών έχουν δεχθεί απόπειρα τηλεφωνικής απάτης, ενώ σχεδόν 60% των προσπαθειών αυτών γίνονται μέσω φωνητικών κλήσεων.

Αν και όχι όλες αυτές οι κλήσεις χρησιμοποιούν τεχνητή φωνή, η χρήση της αυξάνεται ραγδαία χάρη στη διαθεσιμότητα λογισμικών όπως Hume AI και ElevenLabs.

Η ΑΙ-κλωνοποίηση προκαλεί επίσης ανησυχία στη βιομηχανία της ψυχαγωγίας, όπου οι φωνές διασήμων χρησιμοποιούνται χωρίς άδεια. Η Σκάρλετ Γιόχανσον κατήγγειλε πέρυσι ότι η OpenAI χρησιμοποίησε φωνή “πανομοιότυπη” με τη δική της — όπως στην ταινία Her — για το ChatGPT.

Παράλληλα, audio deepfakes έχουν χρησιμοποιηθεί για να μιμηθούν πολιτικούς και δημοσιογράφους, με στόχο την παραπληροφόρηση και την επηρεασμό της κοινής γνώμης.

Η Λάβαν τονίζει ότι οι δημιουργοί αυτών των τεχνολογιών πρέπει να αναλάβουν ευθύνη και να εφαρμόσουν ηθικά πλαίσια. «Οι εταιρείες οφείλουν να συνεργάζονται με ηθικολόγους και νομοθέτες, για να καθορίσουν τα όρια σχετικά με την ιδιοκτησία και τη συναίνεση — ειδικά σε έναν κόσμο που αλλάζει διαρκώς», επισημαίνει.

Για καλό σκοπό

Όπως κάθε τεχνολογία, έτσι και η τεχνητή φωνή έχει και θετικές εφαρμογές — ιδίως για άτομα που δεν μπορούν να μιλήσουν.

«Αυτού του είδους η βοηθητική τεχνολογία χρησιμοποιείται εδώ και χρόνια, με τον Στίβεν Χόκινγκ ως το πιο εμβληματικό παράδειγμα. Το καινούριο είναι ότι πλέον μπορούμε να προσωποποιήσουμε τις φωνές με τρόπους που ήταν αδύνατοι παλαιότερα», λέει η Λάβαν.

Οι χρήστες μπορούν να αναδημιουργήσουν τη δική τους φωνή ή να σχεδιάσουν μια εντελώς νέα που εκφράζει την ταυτότητά τους.

Η Λάβαν σημειώνει επίσης ότι η τεχνολογία, εφόσον χρησιμοποιηθεί ηθικά και υπεύθυνα, μπορεί να βελτιώσει την προσβασιμότητα και τη διαφορετικότητα στην εκπαίδευση, στα μέσα ενημέρωσης και στην παραγωγή ακουστικών βιβλίων.

Πρόσφατη μελέτη έδειξε ότι η ΑΙ-βοηθούμενη ακουστική μάθηση ενίσχυσε το ενδιαφέρον και τη συγκέντρωση μαθητών, ιδιαίτερα όσων έχουν ΔΕΠΥ (ADHD).

«Μια ακόμα συναρπαστική εξέλιξη είναι η δυνατότητα να μεταφράζεται μια φωνή σε διαφορετικές γλώσσες, διατηρώντας ταυτόχρονα τη φωνητική της ταυτότητα. Αυτό θα μπορούσε να φέρει επανάσταση στην παγκόσμια επικοινωνία και την πολιτισμική ανταλλαγή», προσθέτει.

Το μέλλον της φωνής

Καθώς οι τεχνητές φωνές γίνονται όλο και πιο παρούσες στη ζωή μας, οι τρόποι με τους οποίους τις χρησιμοποιούμε θα συνεχίσουν να εξελίσσονται.

Η Λάβαν σκοπεύει να μελετήσει πώς το αν γνωρίζουμε ότι μια φωνή είναι ΑΙ επηρεάζει τον τρόπο που την αντιμετωπίζουμε.

«Θα είχε μεγάλο ενδιαφέρον να δούμε αν οι άνθρωποι είναι πιο πρόθυμοι να υπακούσουν ή να θυμώσουν με φωνές που ακούγονται ευχάριστες αλλά όχι ανθρώπινες», σημειώνει.

«Αυτά τα ερωτήματα μπορούν να μας αποκαλύψουν πολλά για το τι έχει πραγματικά σημασία στις ανθρώπινες — και μη— αλληλεπιδράσεις».