ενημέρωση 4:13, 27 February, 2026

Το Πεντάγωνο επιστρατεύει τις εταιρείες τεχνητής νοημοσύνης

Πηγή: Al Jazeera

Κλιμακώνεται η πίεση της κυβέρνησης των Ηνωμένων Πολιτειών προς τις εταιρείες που αναπτύσσουν εργαλεία τεχνητής νοημοσύνης (AI) για άνευ όρων στρατιωτική και πολιτική χρήση των τεχνολογιών τους από το Πεντάγωνο. Η Anthropic, που έχει αναπτύξει το μοντέλο Claude, το οποίο χρησιμοποιήθηκε κατά την επιχειρήση απαγωγής του Μαδούρο σύμφωνα με πρόσφατες αποκαλύψεις, βρίσκεται στο μάτι του κυκλώνα.

Σύμφωνα με πρόσφατες αναφορές, το λογισμικό Claude της Anthropic χρησιμοποιήθηκε στην αμερικανική στρατιωτική επιχείρηση, η οποία οδήγησε στην απαγωγή του προέδρου της Βενεζουέλας Νικολάς Μαδούρο, τον Ιανουάριο του τρέχοντος έτους.

Ο υπουργός Άμυνας των ΗΠΑ, Πιτ Χέγκσεθ, έδωσε στην εταιρεία προθεσμία έως την Παρασκευή να χαλαρώσει τους κανόνες σχετικά με το πώς μπορούν να χρησιμοποιούνται τα εργαλεία τεχνητής νοημοσύνης της από το Πεντάγωνο, διαφορετικά κινδυνεύει να χάσει το κρατικό της συμβόλαιο, όπως μετέδωσαν την Τρίτη τα πρακτορεία Associated Press και Reuters.

Ωστόσο, η Anthropic αρνείται να υποχωρήσει σε ό,τι αφορά τις δικλείδες ασφαλείας που εμποδίζουν τη χρήση της τεχνολογίας της για εσωτερική παρακολούθηση στις ΗΠΑ και για τον προγραμματισμό αυτόνομων οπλικών συστημάτων που μπορούν να πλήττουν στόχους χωρίς ανθρώπινη παρέμβαση.

Τι είναι η Anthropic;

Η Anthropic είναι εταιρεία τεχνητής νοημοσύνης που ιδρύθηκε το 2021 από πρώην στελέχη της OpenAI. Ήταν η πρώτη εταιρεία AI που χρησιμοποιήθηκε σε απόρρητες επιχειρήσεις του αμερικανικού υπουργείου Άμυνας, το οποίο στεγάζεται στο Πεντάγωνο στην Ουάσινγκτον.

Η Anthropic είναι περισσότερο γνωστή για το Claude, ένα δημοφιλές «μεγάλο γλωσσικό μοντέλο» (LLM), και έχει εξελιχθεί ταχύτατα σε μία από τις πιο σημαντικές εταιρείες ανάπτυξης τεχνητής νοημοσύνης.

Το LLM είναι ένας τύπος τεχνολογίας τεχνητής νοημοσύνης που παράγει κείμενο, εικόνα ή ήχο παρόμοιο με ανθρώπινο περιεχόμενο, αφού αναλύσει τεράστια σύνολα δεδομένων, όπως βιβλία, αρχεία, ιστοσελίδες, εικόνες και βίντεο.

Για στρατιωτική και αμυντική χρήση, τα LLM μπορούν να συνοψίζουν μεγάλους όγκους κειμένου, να αναλύουν δεδομένα, να μεταφράζουν, να απομαγνητοφωνούν και να συντάσσουν υπομνήματα. Θεωρητικά, μπορούν επίσης να χρησιμοποιηθούν για την υποστήριξη αυτόνομων ή ημι-αυτόνομων οπλικών συστημάτων που εντοπίζουν και πλήττουν στόχους χωρίς ανθρώπινη καθοδήγηση. Ωστόσο, οι περισσότερες εταιρείες AI θέτουν όρους που απαγορεύουν τέτοια χρήση.

Η Anthropic παρουσιάζεται ως «υπεύθυνος αναπτυξιακός φορέας» στον χώρο της τεχνητής νοημοσύνης. Στην ιστοσελίδα της αυτοχαρακτηρίζεται «Εταιρεία Δημόσιου Οφέλους», δεσμευμένη στην «υπεύθυνη ανάπτυξη και συντήρηση προηγμένης τεχνητής νοημοσύνης προς το μακροπρόθεσμο όφελος της ανθρωπότητας».

Τον Νοέμβριο, η εταιρεία κατήγγειλε ότι κινεζική ομάδα χάκερ με κρατική υποστήριξη χειραγώγησε τον κώδικα του Claude σε απόπειρα διείσδυσης σε περίπου 30 στόχους παγκοσμίως, μεταξύ των οποίων κυβερνητικές υπηρεσίες, χημικές εταιρείες, χρηματοπιστωτικά ιδρύματα και τεχνολογικοί κολοσσοί. Ορισμένες από αυτές τις απόπειρες ήταν επιτυχείς.

Νωρίτερα αυτόν τον μήνα, ο Μρινάνκ Σάρμα, ερευνητής ασφάλειας AI στην Anthropic, παραιτήθηκε εκφράζοντας ανησυχίες για τη χρήση της τεχνητής νοημοσύνης. Σε δήλωσή του στις 9 Φεβρουαρίου, ανέφερε ότι ο κόσμος βρίσκεται σε κίνδυνο όχι μόνο από την τεχνητή νοημοσύνη ή τα βιολογικά όπλα, αλλά από μια σειρά αλληλένδετων κρίσεων, προσθέτοντας ότι είναι δύσκολο οι αξίες να καθοδηγούν πραγματικά τις πράξεις μέσα σε έναν οργανισμό και στην κοινωνία γενικότερα.

Με ποιες άλλες εταιρείες AI συνεργάζεται ο αμερικανικός στρατός;

Το Πεντάγωνο ανακοίνωσε πέρυσι ότι ανέθεσε αμυντικά συμβόλαια σε τέσσερις εταιρείες AI — Anthropic, Google, OpenAI και xAI — με κάθε σύμβαση να φθάνει έως τα 200 εκατομμύρια δολάρια.

Η Anthropic ήταν η πρώτη που εγκρίθηκε για χρήση σε απόρρητα στρατιωτικά δίκτυα, ενώ συνεργάζεται με εταίρους όπως η Palantir Technologies, εταιρεία λογισμικού που έχει καταγγελθεί για τις σχέσεις της με τον ισραηλινό στρατό. Η xAI του Ίλον Μασκ, η οποία αναπτύσσει το chatbot Grok, έχει επίσης δηλώσει ότι το σύστημά της είναι έτοιμο για χρήση σε απόρρητα περιβάλλοντα.

Η κυβέρνηση Τραμπ επιθυμεί να χρησιμοποιεί τα προϊόντα αυτών των εταιρειών χωρίς περιορισμούς. Ο Χέγκσεθ δήλωσε ότι το όραμά του για τα στρατιωτικά συστήματα AI είναι να λειτουργούν «χωρίς ιδεολογικούς περιορισμούς που περιορίζουν νόμιμες στρατιωτικές εφαρμογές», προσθέτοντας ότι «η AI του Πενταγώνου δεν θα είναι woke».

Γιατί βρίσκεται σε αντιπαράθεση η Anthropic με το Πεντάγωνο;

Σε συνάντηση την Τρίτη, ο Χέγκσεθ έδωσε στον διευθύνοντα σύμβουλο της Anthropic, Ντάριο Αμοντέι, προθεσμία έως την Παρασκευή στις 5 μ.μ. να συμφωνήσει στην παροχή των μοντέλων AI της εταιρείας για χρήση στο νέο εσωτερικό δίκτυο του Πενταγώνου με λιγότερους περιορισμούς.

Αξιωματούχοι του υπουργείου Άμυνας προειδοποίησαν ότι θα μπορούσαν να χαρακτηρίσουν την Anthropic κίνδυνο για την εφοδιαστική αλυσίδα ή να επικαλεστούν τον Νόμο Αμυντικής Παραγωγής, ώστε να αποκτήσουν μεγαλύτερη εξουσία στη χρήση των προϊόντων της.

Ο Αμοντέι έχει εκφράσει ηθικές ανησυχίες για την ανεξέλεγκτη κρατική χρήση της AI, ιδίως για πλήρως αυτόνομα οπλισμένα drones και για συστήματα μαζικής παρακολούθησης που θα μπορούσαν να εντοπίζουν διαφωνούντες.

Δήλωσε ότι τα συνταγματικά μέτρα προστασίας βασίζονται στην ύπαρξη ανθρώπων που θα αρνηθούν να εκτελέσουν παράνομες εντολές — κάτι που δεν θα μπορούν να κάνουν τα αυτόνομα όπλα. Το Πεντάγωνο αντιτίθεται στους ηθικούς περιορισμούς της Anthropic, υποστηρίζοντας ότι οι στρατιωτικές επιχειρήσεις απαιτούν εργαλεία χωρίς ενσωματωμένους περιορισμούς και ότι η ευθύνη για τη νόμιμη χρήση θα βαρύνει τον στρατό.

Πώς χρησιμοποιήθηκε το Claude στη Βενεζουέλα;

Στις 3 Ιανουαρίου, αμερικανικές ειδικές δυνάμεις απήγαγαν τον Μαδούρο, ο οποίος παραμένει υπό κράτηση στις ΗΠΑ και αντιμετωπίζει κατηγορίες για ναρκωτικά και όπλα στη Νέα Υόρκη. Αμερικανικά μέσα ενημέρωσης ανέφεραν στις 14 Φεβρουαρίου ότι το Claude χρησιμοποιήθηκε στην επιχείρηση για τη σύλληψη του Μαδούρο στο Καράκας.

Αξιωματούχος της Anthropic αρνήθηκε να σχολιάσει αν χρησιμοποιήθηκε το Claude ή άλλο μοντέλο AI, σημειώνοντας ότι οποιαδήποτε χρήση πρέπει να συμμορφώνεται με τις πολιτικές χρήσης της εταιρείας. Σύμφωνα με αυτές τις πολιτικές, το Claude δεν μπορεί να χρησιμοποιηθεί για παρακολούθηση, ανάπτυξη όπλων ή «υποκίνηση βίας».

Συνολικά 83 άνθρωποι, μεταξύ των οποίων 47 Βενεζουελάνοι στρατιώτες, σκοτώθηκαν κατά τη διάρκεια της αμερικανικής επιχείρησης. Δεν είναι σαφές πώς ακριβώς χρησιμοποιήθηκε το Claude στην επιχείρηση, αλλά εργαλεία AI μπορούν να ελέγχουν drones, να αναλύουν εικόνες και να συνοψίζουν υποκλαπείσες επικοινωνίες.

Τον Ιούλιο του 2025, η Φραντσέσκα Αλμπανέζε, ειδική εισηγήτρια του ΟΗΕ για τα ανθρώπινα δικαιώματα στα κατεχόμενα παλαιστινιακά εδάφη, δημοσίευσε έκθεση που χαρτογραφεί εταιρείες οι οποίες στηρίζουν το Ισραήλ στον εκτοπισμό Παλαιστινίων και στον πόλεμο στη Γάζα, κατά παράβαση του διεθνούς δικαίου. Η έκθεση διαπίστωσε ότι η Palantir είχε επεκτείνει τη στήριξή της προς τον ισραηλινό στρατό μετά την έναρξη του πολέμου στη Γάζα τον Οκτώβριο του 2023.

Πηγή: infowar

Προσθήκη σχολίου

Βεβαιωθείτε ότι εισάγετε τις (*) απαιτούμενες πληροφορίες, όπου ενδείκνυται. Ο κώδικας HTML δεν επιτρέπεται.