Ποιος πρέπει να ελέγχει την AI όταν γίνεται όπλο

Καθώς η Τεχνητή Νοημοσύνη αποκτά τεράστια ισχύ, ανοίγει μια κρίσιμη πολιτική σύγκρουση: πρέπει να βρίσκεται στα χέρια ιδιωτών ή του κράτους; Η αντιπαράθεση ανάμεσα στο αμερικανικό Πεντάγωνο και την Anthropic φέρνει στο προσκήνιο ένα ερώτημα που μέχρι πρόσφατα έμοιαζε με επιστημονική φαντασία.

Ποιος πρέπει να ελέγχει την AI όταν γίνεται όπλο
  • Ross Douthat

Ας υποθέσουμε ότι πρόκειται να πεθάνετε σε μια τρομακτική καταστροφή που θα σχετίζεται με την Τεχνητή Νοημοσύνη. Τι θα σας βάραινε περισσότερο; Η σκέψη ότι ο δρόμος προς την καταστροφή στρώθηκε από την αλαζονεία των «αρχόντων» της τεχνολογίας στη Silicon Valley, που κυνηγούν οράματα ουτοπίας και αθανασίας; Ή ότι προέκυψε από την απερισκεψία αξιωματούχων του Υπουργείου Άμυνας των Ηνωμένων Πολιτειών, οι οποίοι έδωσαν στην ΑΙ μια μοιραία δόση αυτονομίας και ισχύος, ελπίζοντας να ξεπεράσουν στρατιωτικά τη Ρωσία ή την Κίνα;

Κατά τη διάρκεια του Ψυχρού Πολέμου ανησυχούσαμε κυρίως για στρατιωτικά λάθη. Ακόμη και τότε, όμως, η Τεχνητή Νοημοσύνη είχε βρει θέση στους φόβους μας: από τη σοβιετική «Μηχανή της Αποκάλυψης» στο “Dr. Strangelove”, μέχρι τον υπολογιστή που παίζει πολεμικά παιχνίδια στο “WarGames” και, φυσικά, τη μοιραία απόφαση στο “The Terminator” να τεθεί σε λειτουργία το Skynet.

Τα τελευταία χρόνια, ωστόσο, καθώς οι εξελίξεις στην ΑΙ συγκεντρώνουν εν δυνάμει τεράστια ισχύ στα χέρια λίγων εταιρειών και διευθύνοντων συμβούλων -ανθρώπων βυθισμένων σε μια κουλτούρα επιστημονικής φαντασίας και αποκαλυπτικών φόβων στην περιοχή του κόλπου του Σαν Φρανσίσκο- έγινε πιο φυσικό να ανησυχούμε για την ιδιωτική εξουσία και τη φιλοδοξία: περισσότερο για επίδοξους «θεούς» της Τεχνητής Νοημοσύνης, παρά για προέδρους και στρατηγούς.

Πρόσφατα προέκυψε η σύγκρουση ανάμεσα στο Υπουργείο Άμυνας των Ηνωμένων Πολιτειών και την Anthropic, μια από τις πρωτοπόρες εταιρείες Τεχνητής Νοημοσύνης. Το ζήτημα που τέθηκε είναι αν τα μοντέλα ΑΙ της εταιρείας πρέπει να παραμείνουν δεσμευμένα από τους ηθικούς περιορισμούς που έχει θέσει η ίδια η εταιρεία ή αν θα πρέπει να είναι διαθέσιμα για κάθε χρήση που ενδέχεται να θελήσει το Πεντάγωνο.

«Ας δούμε τον πόλεμο στο Ιράν μέσα από το πρίσμα της μέχρι σήμερα πολιτικής πορείας του Donald Trump», γράφει ο αρθρογράφος των New York Times, Ross Douthat. Shannon Lin / The New York Times

Δεδομένου ότι η τρέχουσα σύμβαση της Anthropic αποκλείει ρητά δύο χρήσεις -την αξιοποίηση της ΑΙ για μαζική παρακολούθηση και τη χρήση της σε πλήρως αυτόνομα όπλα (δηλαδή χωρίς ανθρώπινη συμμετοχή στην απόφαση «να σκοτώσει ή όχι»)- είναι εύκολο να νιώσει κανείς μια δόση… Skynet στις απαιτήσεις του Πενταγώνου. Όπως σημείωσε ο αναλυτής Matt Yglesias, όλα τα περίπλοκα σενάρια καταστροφής που φαντάζονται οι πιο απαισιόδοξοι για την ΑΙ γίνονται πολύ απλούστερα, αν η κυβέρνηση αποφασίσει να αρχίσει να κατασκευάζει αυτόνομα ρομπότ-δολοφόνους.

Το Πεντάγωνο λέει ότι αυτό δεν είναι το σχέδιό του. Η επίσημη ανησυχία είναι πως δεν μπορεί να ενσωματώσει μια τόσο κρίσιμη τεχνολογία στην αρχιτεκτονική της εθνικής ασφάλειας και ταυτόχρονα να επιτρέπει σε μια ιδιωτική εταιρεία να έχει γενικό ηθικό δικαίωμα βέτο στη χρήση της -ακόμη κι αν αυτές οι αρχές φαίνονται εύλογες στα χαρτιά. Μια τέτοια ρύθμιση μεταφέρει ουσιαστικά αποφάσεις που πρέπει να λαμβάνονται από έναν εκλεγμένο πρόεδρο και τους συνεργάτες του σε ιδιωτικούς φορείς, ενώ δημιουργεί τον κίνδυνο σοβαρής κρίσης, όταν η πραγματικότητα δεν συμβαδίζει με τα εταιρικά ιδανικά.

Το παράδειγμα που δίνουν οι υπηρεσίες είναι ένα υποθετικό σενάριο υπερηχητικής πυραυλικής επίθεσης εναντίον των Ηνωμένων Πολιτειών Αμερικής, στην οποία μια εταιρεία ΑΙ αρνείται να βοηθήσει σε κρίσιμη αντίδραση, επειδή κάτι τέτοιο παραβιάζει τον κανόνα της μη αυτόνομης λειτουργίας των μηχανών.

Ακόμη και αν αυτή η ανησυχία είναι βάσιμη, δεν δικαιολογεί -τουλάχιστον προς το παρόν- το σχέδιο της κυβέρνησης να κηρύξει ουσιαστικά πόλεμο στην Anthropic: όχι μόνο να διακόψει τη συνεργασία του στρατού με την εταιρεία, αλλά και να τη χαρακτηρίσει «κίνδυνο για την αλυσίδα εφοδιασμού», κάτι που θα μπορούσε να διακόψει τις σχέσεις της με οποιαδήποτε εταιρεία συνεργάζεται με την αμερικανική κυβέρνηση.

Μέχρι πρόσφατα, η κυβέρνηση του Donald Trump προέβαλλε τα πλεονεκτήματα μιας αποκεντρωμένης ελεύθερης αγοράς στην ανάπτυξη της Τεχνητής Νοημοσύνης. Η προσπάθεια να πιεστεί ή να «σπάσει» η Anthropic υποδηλώνει το τέλος αυτής της προσέγγισης και μια στροφή προς ένα πιο συγκεντρωτικό και στρατιωτικοποιημένο μοντέλο. Μάλιστα, όπως σημειώνει ο αναλυτής Πολιτικής Τεχνητής Νοημοσύνης Dean Ball, μια τέτοια κίνηση θα μπορούσε να καταστήσει την αμερικανική κυβέρνηση «τον πιο επιθετικό ρυθμιστή της Τεχνητής Νοημοσύνης στον κόσμο».

Είσοδος στο Taft Memorial and Carillon στην Ουάσιγκτον, 9 Ιουλίου 2024. Η σύγκρουση ανάμεσα στο Υπουργείο Άμυνας των Ηνωμένων Πολιτειών και την Anthropic αφορά το αν τα μοντέλα Τεχνητής Νοημοσύνης της εταιρείας θα παραμείνουν δεσμευμένα από τους δικούς της ηθικούς περιορισμούς ή θα μπορούν να χρησιμοποιηθούν για οποιονδήποτε σκοπό θελήσει το Πεντάγωνο. Daniel Terna / The New York Times

Αυτός είναι ένας καλός λόγος για ολόκληρη τη βιομηχανία της ΑΙ να σταθεί στο πλευρό της Anthropic. Και αν φοβάστε κυρίως ένα σενάριο τύπου Skynet, όπου ο στρατιωτικός ανταγωνισμός επιταχύνει ανεξέλεγκτα την Τεχνητή Νοημοσύνη, τότε πράγματι θα πρέπει να στηρίξετε τη θέση της εταιρείας.

Είναι όμως πραγματικά αυτός ο μεγαλύτερος κίνδυνος;

Αυτή τη στιγμή, αν ακούσει κανείς τον επικεφαλής της Anthropic, Dario Amodei -για παράδειγμα στη συνέντευξη που του πήρα πρόσφατα φαίνεται σαφώς πιο ευαίσθητος απέναντι στους κινδύνους μιας στρατιωτικοποιημένης ή ανεξέλεγκτης Τεχνητής Νοημοσύνης από τον υπουργό Άμυνας Pete Hegseth. (Ο Hegseth είναι βέβαια ευπρόσδεκτος να με διαψεύσει, ερχόμενος στο podcast μου.)

Σε βάθος χρόνου, όμως, μπορεί κανείς να φανταστεί ότι οι αξιωματούχοι του Πενταγώνου έχουν ορισμένα πλεονεκτήματα έναντι των τυπικών μεγιστάνων της τεχνολογίας όσον αφορά την ασφάλεια και τον έλεγχο.

Πρώτον, συνήθως επικεντρώνονται σε συγκεκριμένους στρατηγικούς στόχους και όχι σε οράματα «θεϊκών μηχανών» ή στη λεγόμενη τεχνολογική μοναδικότητα (technological singularity).

Δεύτερον, περιορίζονται από τη γραφειοκρατική προσοχή και την αλυσίδα διοίκησης.

Και τρίτον, λογοδοτούν στο κοινό -μέσω εκλογών και πολιτικού ελέγχου- με τρόπο που οι διευθύνοντες σύμβουλοι δεν λογοδοτούν.

Αν πράγματι η Τεχνητή Νοημοσύνη εξελιχθεί στην κολοσσιαία δύναμη που προβλέπουν πολλοί τεχνολογικοί ηγέτες -μια δύναμη ικανή να αλλάξει τον ίδιο τον πολιτισμό, πιο σύνθετη από τα πυρηνικά όπλα αλλά εξίσου δυνητικά καταστροφική-, τότε είναι δύσκολο να φανταστεί κανείς ότι θα παραμείνει επ’ αόριστον στα χέρια ιδιωτικών εταιρειών, ενώ η αμερικανική δημοκρατία θα συνεχίζει σαν να μη συμβαίνει τίποτα. Η πιθανότητα κρατικού ή στρατιωτικού ελέγχου θα παραμένει πάντα στο τραπέζι, όσο προσπαθούμε να καταλάβουμε τι μπορεί να κάνει αυτή η τεχνολογία.

Υπό αυτή την έννοια, αυτό που κάνουν ο Hegseth και η κυβέρνηση Trump είναι να ξεκινούν νωρίς μια αναπόφευκτη σύγκρουση και να φέρνουν στην επιφάνεια το βασικό πολιτικό ερώτημα: ποιος ελέγχει πραγματικά την Τεχνητή Νοημοσύνη;

Η επιθυμία όμως για κυριαρχία δεν αποτελεί σχέδιο διακυβέρνησης. Και πέρα από την άρνησή της να αποδεχθεί τους εταιρικούς ηθικούς φραγμούς, δεν υπάρχουν ενδείξεις ότι η κυβέρνηση έχει σκεφτεί σε βάθος πώς πρέπει να ρυθμιστεί η ΑΙ -ούτε πώς ο πόλεμος που άνοιξε εναντίον της Anthropic θα οδηγήσει τελικά σε περισσότερη ισχύ ή μεγαλύτερη ασφάλεια.

© 2026 The New York Times Company

 

v
Απόρρητο