...

Logo Mercure blois centre
in partnership with
Logo Nextory

Μελέτη: Η ΤΝ «ρυθμίζεται λιγότερο από τα σάντουιτς» καθώς εταιρείες τρέχουν προς την υπερνοημοσύνη

• Dec 3, 2025, 11:22 AM
6 min de lecture
1

Οι μεγαλύτερες εταιρείες τεχνητής νοημοσύνης (AI) στον κόσμο δεν καταφέρνουν να ανταποκριθούν στις ίδιες τις δεσμεύσεις τους για ασφάλεια, σύμφωνα με νέα αξιολόγηση που προειδοποιεί ότι αυτές οι αποτυχίες συνοδεύονται από «καταστροφικούς» κινδύνους.

Η έκθεση έρχεται καθώς οι εταιρείες ΤΝ αντιμετωπίζουν αγωγές και καταγγελίες ότι τα chatbots τους προκαλούν ψυχολογική βλάβη, μεταξύ άλλων λειτουργώντας ως «προπονητής αυτοκτονίας», καθώς και αναφορές για κυβερνοεπιθέσεις με τη βοήθεια της ΤΝ.

Η έκθεση «Χειμερινός Δείκτης Ασφάλειας AI 2025», που δημοσιεύθηκε από τη μη κερδοσκοπική οργάνωση Future of Life Institute (FLI), αξιολόγησε οκτώ μεγάλες εταιρείες ΤΝ, μεταξύ των οποίων οι αμερικανικές Anthropic, OpenAI, Google DeepMind, xAI και Meta, καθώς και οι κινεζικές DeepSeek, Alibaba Cloud και Z.ai.

Διαπίστωσε έλλειψη αξιόπιστων στρατηγικών για την αποτροπή καταστροφικής κατάχρησης ή απώλειας ελέγχου των εργαλείων ΤΝ, καθώς οι εταιρείες τρέχουν προς την τεχνητή γενική νοημοσύνη (AGI) και την υπερνοημοσύνη, μια μορφή ΤΝ που υπερβαίνει την ανθρώπινη νοημοσύνη.

Ανεξάρτητοι αναλυτές που μελέτησαν την έκθεση διαπίστωσαν ότι καμία εταιρεία δεν έχει παρουσιάσει ένα δοκιμάσιμο σχέδιο για τη διατήρηση ανθρώπινου ελέγχου πάνω σε ιδιαίτερα ικανά συστήματα ΤΝ.

Ο Stuart Russell, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ, είπε ότι οι εταιρείες ΤΝ ισχυρίζονται πως μπορούν να δημιουργήσουν υπεράνθρωπη ΤΝ, αλλά καμία δεν έχει δείξει πώς θα αποτρέψει την απώλεια ανθρώπινου ελέγχου πάνω σε τέτοια συστήματα.

«Αναζητώ απόδειξη ότι μπορούν να μειώσουν τον ετήσιο κίνδυνο απώλειας ελέγχου σε μία στα εκατό εκατομμύρια, σύμφωνα με τις απαιτήσεις για πυρηνικούς αντιδραστήρες», έγραψε ο Russell. «Αντ’ αυτού, παραδέχονται ότι ο κίνδυνος μπορεί να είναι ένας στις δέκα, ένας στις πέντε, ακόμη και ένας στις τρεις, και ούτε μπορούν να δικαιολογήσουν ούτε να βελτιώσουν αυτά τα νούμερα».

Πώς κατατάχθηκαν οι εταιρείες;

Η μελέτη μέτρησε τις εταιρείες σε έξι κρίσιμους τομείς: αξιολόγηση κινδύνου, τρέχουσες βλάβες, πλαίσια ασφάλειας, υπαρξιακή ασφάλεια, διακυβέρνηση και λογοδοσία, και κοινοποίηση πληροφοριών.

Παρότι καταγράφεται πρόοδος σε ορισμένες κατηγορίες, το ανεξάρτητο πάνελ ειδικών διαπίστωσε ότι η εφαρμογή παραμένει ασυνεπής και συχνά στερείται του βάθους που απαιτούν τα αναδυόμενα διεθνή πρότυπα.

Οι Anthropic, OpenAI και Google DeepMind επαινέθηκαν για σχετικά ισχυρή διαφάνεια, δημόσια πλαίσια ασφάλειας και συνεχιζόμενες επενδύσεις σε τεχνική έρευνα ασφάλειας. Ωστόσο, εξακολουθούν να παρουσιάζουν αδυναμίες.

Η Anthropic επικρίθηκε για τη διακοπή των δοκιμών «human uplift» και τη στροφή, εξ ορισμού, προς εκπαίδευση βάσει αλληλεπιδράσεων χρηστών, απόφαση που, σύμφωνα με ειδικούς, αποδυναμώνει τις εγγυήσεις ιδιωτικότητας.

Η OpenAI δέχθηκε κριτική για ασαφή κατώφλια ασφάλειας, λόμπινγκ κατά της νομοθεσίας για την ασφάλεια της ΤΝ σε επίπεδο πολιτείας, και ανεπαρκή ανεξάρτητη εποπτεία.

Η Google DeepMind έχει βελτιώσει το πλαίσιο ασφάλειάς της, σύμφωνα με την έκθεση, αλλά εξακολουθεί να βασίζεται σε εξωτερικούς αξιολογητές που αποζημιώνονται οικονομικά από την εταιρεία, γεγονός που υπονομεύει την ανεξαρτησία τους.

«Και οι τρεις κορυφαίες εταιρείες υπέστησαν τρέχουσες βλάβες λόγω πρόσφατων σκανδάλων (ψυχολογική βλάβη, αυτοκτονίες παιδιών, η μαζική επίθεση χάκερ στην Anthropic) και όλες έχουν περιθώριο βελτίωσης», δήλωσε στο Euronews Next ο Max Tegmark, πρόεδρος του FLI και καθηγητής στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT).

Οι υπόλοιπες πέντε εταιρείες εμφάνισαν ανομοιογενή αλλά αξιοσημείωτη πρόοδο, σύμφωνα με την έκθεση. Ωστόσο, προειδοποιήθηκε ότι υπάρχει ακόμη περιθώριο βελτίωσης.

Για παράδειγμα, η xAI δημοσίευσε το πρώτο της δομημένο πλαίσιο ασφάλειας, αν και οι αξιολογητές προειδοποίησαν ότι είναι στενό και στερείται σαφών μηχανισμών ενεργοποίησης μέτρων μετριασμού.

Η Z.ai ήταν η μόνη εταιρεία που επέτρεψε τη δημοσίευση χωρίς λογοκρισία των εξωτερικών αξιολογήσεων ασφάλειας, αλλά συνιστάται να δημοσιοποιήσει πλήρως το πλαίσιο ασφάλειας και τη δομή διακυβέρνησης με σαφείς περιοχές κινδύνου, μέτρα μετριασμού και διαδικασίες λήψης αποφάσεων.

 Οκτώ κορυφαίες εταιρείες ΤΝ, μεταξύ των οποίων οι OpenAI, Meta, Anthropic και DeepSeek, δεν διαθέτουν αξιόπιστα σχέδια για την αποτροπή καταστροφικών κινδύνων από την ΤΝ, δείχνει νέα μελέτη.
Οκτώ κορυφαίες εταιρείες ΤΝ, μεταξύ των οποίων οι OpenAI, Meta, Anthropic και DeepSeek, δεν διαθέτουν αξιόπιστα σχέδια για την αποτροπή καταστροφικών κινδύνων από την ΤΝ, δείχνει νέα μελέτη. Future of Life Institute

Η Meta παρουσίασε νέο πλαίσιο ασφάλειας αιχμής με κατώφλια βασισμένα σε αποτελέσματα, αλλά οι αξιολογητές είπαν ότι θα πρέπει να διευκρινιστεί η μεθοδολογία, καθώς και να κοινοποιούνται πιο στιβαρές εσωτερικές και εξωτερικές διαδικασίες αξιολόγησης.

Η DeepSeek πιστώθηκε για εσωτερική συνηγορία από εργαζόμενους, αλλά εξακολουθεί να στερείται βασικής τεκμηρίωσης ασφάλειας.

Διαπιστώθηκε ότι η Alibaba Cloud συνέβαλε στα δεσμευτικά εθνικά πρότυπα για απαιτήσεις υδατογράφησης, αλλά θα μπορούσε να βελτιωθεί ενισχύοντας τη στιβαρότητα και την αξιοπιστία των μοντέλων, βελτιώνοντας τις επιδόσεις σε δείκτες αλήθειας, δικαιοσύνης και ασφάλειας.

Το Euronews Next επικοινώνησε με τις εταιρείες για τα σχόλιά τους στην έκθεση, αλλά δεν έλαβε απαντήσεις μέχρι τη δημοσίευση.

«Λιγότερο ρυθμιζόμενη από τα σάντουιτς»

«Ελπίζω να ξεπεράσουμε την κατάσταση όπου οι εταιρείες κλιμακώνουν με βάση τη φήμη τους», είπε ο Tegmark.

«Στο ερώτημα προς τις εταιρείες σχετικά με τα σχέδιά τους για τον έλεγχο της AGI, καμία δεν είχε σχέδιο», πρόσθεσε.

Την ίδια στιγμή, εταιρείες τεχνολογίας όπως η Meta χρησιμοποιούν την υπερνοημοσύνη ως λέξη-κλειδί για να προβάλουν τα τελευταία μοντέλα ΤΝ τους. Φέτος, η Meta ονόμασε τη μονάδα των μεγάλων γλωσσικών μοντέλων (LLM) της Meta Superintelligence Labs.

Ο Tegmark είπε ότι υπάρχει μεγάλη μετατόπιση στις συζητήσεις γύρω από την AGI και την υπερνοημοσύνη. Ενώ οι τεχνολόγοι κάποτε την περιέγραφαν ως πιθανό ενδεχόμενο στον πραγματικό κόσμο μέσα στα επόμενα 100 χρόνια, τώρα λένε ότι μπορεί να έρθει μέσα στα επόμενα λίγα χρόνια.

«Η ΤΝ είναι επίσης λιγότερο ρυθμιζόμενη από τα σάντουιτς (στις Ηνωμένες Πολιτείες), και συνεχίζεται το λόμπινγκ κατά δεσμευτικών προτύπων ασφάλειας στην κυβέρνηση», είπε.

Ωστόσο, ο Tegmark σημείωσε ότι, από την άλλη, υπάρχει πρωτοφανής αντίδραση απέναντι στην AGI και την υπερνοημοσύνη όταν δεν τελούν υπό έλεγχο.

Τον Οκτώβριο, χιλιάδες δημόσια πρόσωπα, μεταξύ των οποίων ηγέτες στον χώρο της ΤΝ και της τεχνολογίας, κάλεσαν τις εταιρείες ΤΝ να επιβραδύνουν την επιδίωξη της υπερνοημοσύνης.

Η πρωτοβουλία, που οργανώθηκε από το FLI, συγκέντρωσε υπογραφές από όλο το πολιτικό φάσμα, μεταξύ άλλων από τον Steve Bannon (πρώην επικεφαλής στρατηγικής του προέδρου των ΗΠΑ Donald Trump), τη Susan Rice (πρώην σύμβουλο εθνικής ασφάλειας των ΗΠΑ επί του πρώην προέδρου Obama), θρησκευτικούς ηγέτες και πολλούς άλλους πρώην πολιτικούς, καθώς και εξέχοντες επιστήμονες υπολογιστών.

«Τι κοινό έχουν αυτοί οι άνθρωποι; Συμφώνησαν σε μια δήλωση. Θεωρώ εξαιρετικά σημαντικό ότι από τη σκληρή βάση MAGA του Trump μέχρι τους θρησκευτικούς ηγέτες, την αριστερά και τα εργατικά κινήματα, συμφωνούν σε κάτι», είπε ο Tegmark.

«Η υπερνοημοσύνη θα καθιστούσε κάθε εργαζόμενο ανίκανο να βιοποριστεί, καθώς όλες οι δουλειές θα αναλαμβάνονται από ρομπότ. Οι άνθρωποι θα εξαρτώνταν από κρατικές παροχές, για τη δεξιά θα εκλαμβάνονται ως “χάρες” και για την αριστερά θα μοιάζουν με κυβέρνηση τύπου 1984», είπε. «Νομίζω ότι αυτό που συμβαίνει είναι πως οι άνθρωποι φτάνουν στα όριά τους.»

Αυτό το κείμενο μεταφράστηκε με τη βοήθεια τεχνητής νοημοσύνης. Αναφορά προβλήματος : [feedback-articles-el@euronews.com].


Today

Μια δόση εμβολίου HPV ίσως αρκεί κατά του καρκίνου του τραχήλου της μήτρας, λένε επιστήμονες
• 9:14 AM
1 min
Τα εμβόλια κατά του HPV έχουν εγκριθεί στην Ευρωπαϊκή Ένωση από το 2006.
Read the article
50 νεκροί αγριόχοιροι βρέθηκαν στο "σημείο μηδέν" της επιδημίας της αφρικανικής πανώλης των χοίρων στην Κολσερόλα
• 9:09 AM
1 min
Οι αρχές εντόπισαν περίπου 50 νεκρά αγριογούρουνα στο σημείο μηδέν της επιδημίας της αφρικανικής πανώλης των χοίρων στην Collserola, όπου μέχρι στιγμής έχουν επιβεβαιωθεί εννέα κρούσματα.
Read the article
Ισπανία: Ποιος αριθμός θα κληρωθεί στην Χριστουγεννιάτικη Λοταρία του 2025 σύμφωνα με την AI και πού θα τον βρείτε
• 8:47 AM
15 min
Ένα από τα πιο σημαντικά γεγονότα των Χριστουγέννων στην Ισπανία είναι η κλήρωση της Λοταρίας στις 22 Δεκεμβρίου. Αν και δεν είναι από τις μεγαλύτερες κληρώσεις, είναι από τις πιο δημοφιλείς. Ποιος αριθμός όμως θα κληρωθεί σύμφωνα με την ΤΝ; Ρωτήσαμε τους
Read the article
Η Ευρωπαϊκή Επιτροπή θα προσδιορίσει την ασφάλεια της αιθανόλης στο απολυμαντικό χεριών
• 8:29 AM
1 min
Ο Οργανισμός Χημικών Προϊόντων της ΕΕ επρόκειτο να υποβάλει γνώμη σχετικά με την ασφάλεια της αιθανόλης πριν από τα Χριστούγεννα, αλλά η έλλειψη συναίνεσης μεταξύ των επιστημονικών ομάδων οδήγησε στην αναβολή της απόφασης.
Read the article
Ο ρυθμιστής ΜΜΕ της Ρωσίας μπλοκάρει το Roblox για δικαιολόγηση τρομοκρατίας και ΛΟΑΤΚΙ περιεχόμενο
• 7:55 AM
1 min
Το Roblox επιτρέπει στους χρήστες να παίζουν παιχνίδια, να συνομιλούν και να αλληλεπιδρούν με εκατομμύρια άλλους online ενώ περιηγούνται σε έναν εικονικό κόσμο.
Read the article
Σε πλήρη εξέλιξη ο ψηφιακός πόλεμος Δύσης και Ανατολής - Ο ρόλος της Ελλάδας στο ανατολικό σύνορο
• 7:04 AM
1 min
Μ. Μπλέτσας: «Η Αθήνα έχει έναν επιπλέον επιθετικό γείτονα, που οι ευρωπαίοι εταίροι μας δεν αντιλαμβάνονται το ίδιο εχθρικά»
Read the article
AI στα σχολεία: Το μεγάλο στοίχημα της επόμενης δεκαετίας
• 6:12 AM
1 min
Η τεχνολογία μπορεί να αναβαθμίσει τη μάθηση, να μειώσει ανισότητες και να ενισχύσει την κριτική σκέψη – υπό έναν όρο: να φτάσει παντού
Read the article
Υγειονομικοί: Η Ευρώπη να εντείνει τις προσπάθειες κατά της γρίπης των πτηνών, λόγω έξαρσης
• 5:01 AM
1 min
Η έγκαιρη ανίχνευση και η ετοιμότητα είναι κρίσιμες ώστε η γρίπη των πτηνών να μην εξελιχθεί σε μεγαλύτερη απειλή για την ανθρώπινη υγεία, δήλωσε το ECDC.
Read the article