ενημέρωση 7:41, 1 May, 2026

Ο «Μύθος» του τρόμου -Γιατί οι κολοσσοί της Τεχνητής Νοημοσύνης επενδύουν στον φόβο

Η στρατηγική της «ψηφιακής αποκάλυψης» και η περίπτωση του Claude Mythos της Anthropic υπό το πρίσμα των ειδικών

Το μοτίβο επαναλαμβάνεται με μια σχεδόν τελετουργική συνέπεια: μια εταιρεία τεχνολογίας ανακοινώνει τη δημιουργία μιας νέας τεχνητής νοημοσύνης, η οποία περιγράφεται ως τόσο ισχυρή που προκαλεί δέος, αν όχι καθαρό τρόμο. Σύμφωνα με μια ανάλυση του BBC, βρισκόμαστε μπροστά σε ένα παράδοξο φαινόμενο όπου οι δημιουργοί αυτών των εργαλείων εμφανίζονται ταυτόχρονα ως κήρυκες μιας επικείμενης καταστροφής. Υποστηρίζουν ότι τα δημιουργήματά τους είναι υπερβολικά επικίνδυνα για να αφεθούν ελεύθερα στον κόσμο, διατηρώντας τα προσώρας υπό περιορισμό, φροντίζοντας όμως να διασφαλίσουν ότι το κοινό γνωρίζει καλά την ύπαρξη αυτής της «κλειδωμένης» ισχύος.

Claude Mythos: Ένα εργαλείο κυβερνοπολέμου ή επικοινωνιακό τέχνασμα;

Η εταιρεία Anthropic αποτελεί το πιο πρόσφατο παράδειγμα αυτής της τακτικής με το μοντέλο της, Claude Mythos. Η εταιρεία διατείνεται ότι οι ικανότητες του συστήματος στον εντοπισμό κενών ασφαλείας ξεπερνούν κατά πολύ τους ανθρώπινους εμπειρογνώμονες, προειδοποιώντας ότι η διαρροή παρόμοιας τεχνολογίας σε λάθος χέρια θα μπορούσε να επιφέρει παγκόσμια αστάθεια. Σε επίσημη ανάρτηση ιστολογίου, η Anthropic τόνισε ότι οι επιπτώσεις για την οικονομία και την εθνική ασφάλεια ενδέχεται να είναι σοβαρές, προκαλώντας κύμα ανησυχίας σε ορισμένους παρατηρητές που οραματίζονται ήδη ένα ψηφιακό χάος.

Ωστόσο, η Heidy Khlaaf, διακεκριμένη επιστήμονας στο AI Now Institute με εμπειρία στην ψηφιακή θωράκιση πυρηνικών εγκαταστάσεων, αντιμετωπίζει αυτούς τους ισχυρισμούς με έντονο σκεπτικισμό. Η Khlaaf επισημαίνει ότι η Anthropic απέφυγε συστηματικά να παρουσιάσει δεδομένα για τα «ψευδώς θετικά» αποτελέσματα, έναν θεμελιώδη δείκτη αξιοπιστίας για κάθε εργαλείο ανάλυσης κώδικα. Η απουσία σύγκρισης με υφιστάμενα βιομηχανικά πρότυπα δημιουργεί την υποψία ότι το αφήγημα περί «πανίσχυρης και επικίνδυνης τεχνολογίας» ίσως καλύπτει πιο πεζές πραγματικότητες, όπως η έλλειψη υπολογιστικής ισχύος για την ευρεία κυκλοφορία του μοντέλου.
Η κινδυνολογία ως εργαλείο απόσπασης προσοχής

Το ερώτημα που τίθεται είναι γιατί μια επιχείρηση να επιδιώκει τον εκφοβισμό του κοινού της. Η Shannon Vallor, επικεφαλής του τμήματος Ηθικής των Δεδομένων στο Πανεπιστήμιο του Εδιμβούργου, υποστηρίζει ότι η εστίαση σε σενάρια αποκάλυψης λειτουργεί ως μια κομψή στρατηγική αντιπερισπασμού. Κατά την ίδια, η παρουσίαση αυτών των συστημάτων ως υπερφυσικών απειλών καθιστά τους πολίτες ανίσχυρους, οδηγώντας τους στην πεποίθηση ότι μόνο οι ίδιες οι εταιρείες που τα κατασκεύασαν μπορούν να μας προστατεύσουν από αυτά.

Αυτή η ρητορική επιτρέπει στις εταιρείες να παρακάμπτουν τη συζήτηση για τις ήδη υπαρκτές και οδυνηρές συνέπειες της δραστηριότητάς τους. Ενώ το κοινό ανησυχεί για το «τέλος της ανθρωπότητας», ζητήματα όπως η περιβαλλοντική καταστροφή από τα ενεργοβόρα κέντρα δεδομένων, η εκμετάλλευση της εργασίας και οι κίνδυνοι για την ψυχική υγεία από τη χρήση της AI περνούν σε δεύτερη μοίρα. Επιπλέον, ενισχύεται η άποψη ότι οι ρυθμιστικές αρχές πρέπει να μείνουν στο περιθώριο, αφήνοντας την ηγεμονία της τεχνολογίας στα χέρια λίγων «φωτισμένων» εργαστηρίων.
Από το GPT-2 στην εποχή του Sam Altman

Η ιστορία της Silicon Valley βρίθει περιπτώσεων όπου ο φόβος χρησιμοποιήθηκε ως εργαλείο μάρκετινγκ. Το 2019, ο Dario Amodei, στέλεχος τότε της OpenAI, είχε αρνηθεί την κυκλοφορία του GPT-2 επικαλούμενος κινδύνους κακόβουλης χρήσης, για να το διαθέσει τελικά λίγους μήνες αργότερα. Ακόμη και ο Sam Altman, ο οποίος πρόσφατα επέκρινε το «μάρκετινγκ φόβου» της Anthropic, έχει οικοδομήσει το προφίλ του πάνω σε παρόμοιες αντιφάσεις, δηλώνοντας προ ετών ότι η τεχνητή νοημοσύνη πιθανότατα θα φέρει το τέλος του κόσμου, αλλά στο μεσοδιάστημα θα δημιουργήσει σπουδαίες επιχειρηματικές ευκαιρίες.

Αυτή η αμφισημία, όπου η τεχνολογία παρουσιάζεται ταυτόχρονα ως δαίμονας και ως μεσσίας, εξυπηρετεί απόλυτα την άνοδο των χρηματιστηριακών αξιών. Όπως σημειώνει η καθηγήτρια Emily M. Bender, πρόκειται για ένα επαναλαμβανόμενο μοτίβο που στόχο έχει να αποθεώσει την ισχύ των προϊόντων τους. Υποσχόμενοι ταυτόχρονα την επίλυση της κλιματικής κρίσης και την αποίκιση του διαστήματος, οι ηγέτες της τεχνολογίας μετατρέπουν τα προϊόντα τους σε μυθικές οντότητες, καθιστώντας έννοιες όπως η νομοθετική ρύθμιση και η δημοκρατική διακυβέρνηση να φαντάζουν ανίσχυρες μπροστά στο «μοιραίο».

Η ανάγκη για ανθρώπινο έλεγχο

Παρά τη δραματοποίηση, η πραγματικότητα παραμένει πιο προσγειωμένη. Η Shannon Vallor υπενθυμίζει ότι η ανθρωπότητα έχει ρυθμίσει με επιτυχία τεχνολογίες πολύ πιο απειλητικές, όπως τα πυρηνικά όπλα, χωρίς ποτέ να δεχθεί ότι αποτελούν δυνάμεις πέρα από τον ανθρώπινο έλεγχο. Η τεχνητή νοημοσύνη δεν είναι θεός, αλλά ένα προϊόν που κατασκευάζεται από εταιρείες με σαφή κίνητρα κέρδους.

Καθώς οι οργανισμοί αυτοί απομακρύνονται από τον αρχικό μη κερδοσκοπικό τους χαρακτήρα και επιδιώκουν την κυριαρχία στην αγορά, η επίκληση του «υπαρξιακού κινδύνου» ίσως αποδειχθεί μια ακόμη επικοινωνιακή φούσκα, παρόμοια με εκείνες του Metaverse ή των κρυπτονομισμάτων. Το αν η τεχνητή νοημοσύνη θα αλλάξει τον κόσμο μένει να φανεί, όμως η επιλογή του να μην την ρυθμίσουμε επειδή «τη φοβόμαστε» φαίνεται να είναι ακριβώς αυτό που επιδιώκουν οι δημιουργοί της.

Προσθήκη σχολίου

Βεβαιωθείτε ότι εισάγετε τις (*) απαιτούμενες πληροφορίες, όπου ενδείκνυται. Ο κώδικας HTML δεν επιτρέπεται.