Τεχνητή νοημοσύνη και πόλεμος: Κλιμάκωση εντάσεων και αγώνας δρόμου χωρίς κανόνες

Η όξυνση της αντιπαράθεσης μεταξύ Ηνωμένων Πολιτειών, Ισραήλ και Ιράν επαναφέρει στο προσκήνιο έναν από τους πιο αμφιλεγόμενους τομείς της σύγχρονης τεχνολογίας: τη χρήση της τεχνητής νοημοσύνης στις πολεμικές επιχειρήσεις.

Λίγο πριν από την έναρξη της κοινής στρατιωτικής επιχείρησης στα τέλη Φεβρουαρίου, η αμερικανική κυβέρνηση διέκοψε τη συνεργασία της με βασικό πάροχο τεχνολογίας AI, φέρνοντας στην επιφάνεια τις έντονες διαφωνίες για τα όρια χρήσης αυτών των συστημάτων στον πόλεμο. Την ίδια στιγμή, στη Γενεύη, νομικοί, ακαδημαϊκοί και ειδικοί συζητούσαν για τα αυτόνομα οπλικά συστήματα, στο πλαίσιο των προσπαθειών για διεθνή ρύθμιση.

Ωστόσο, όπως επισημαίνουν αναλυτές, η τεχνολογία προχωρά με ρυθμούς που ξεπερνούν κατά πολύ τη διπλωματία. Οι εξελίξεις στην τεχνητή νοημοσύνη δημιουργούν νέα δεδομένα στο πεδίο της μάχης, ενώ οι διεθνείς θεσμοί δυσκολεύονται να ακολουθήσουν.

Ήδη, η χρήση της AI από τον αμερικανικό στρατό είναι εκτεταμένη. Συστήματα βασισμένα σε μεγάλα γλωσσικά μοντέλα αξιοποιούνται για ανάλυση πληροφοριών, επιχειρησιακή υποστήριξη και λήψη αποφάσεων σε πραγματικό χρόνο.

Αμφιβολίες για την «ακρίβεια» της AI

Πλατφόρμες όπως το Maven Smart System επιταχύνουν τις στρατιωτικές επιχειρήσεις, εντοπίζοντας και ιεραρχώντας στόχους. Αν και υποστηρίζεται ότι η τεχνητή νοημοσύνη μπορεί να μειώσει τα λάθη, τα δεδομένα από σύγχρονες συγκρούσεις δεν επιβεβαιώνουν αυτή την αισιοδοξία.

Σύμφωνα με ειδικούς, δεν υπάρχουν σαφείς αποδείξεις ότι η χρήση AI περιορίζει τις απώλειες αμάχων — αντιθέτως, υπάρχουν ενδείξεις ότι μπορεί να τις αυξάνει.

Παράλληλα, η προοπτική πλήρως αυτόνομων οπλικών συστημάτων χωρίς ανθρώπινη παρέμβαση προκαλεί έντονες αντιδράσεις, καθώς εγείρονται σοβαρά ζητήματα συμμόρφωσης με το διεθνές ανθρωπιστικό δίκαιο.

Διαμάχες για τον έλεγχο της τεχνολογίας

Οι εντάσεις δεν περιορίζονται στο πεδίο της μάχης, αλλά επεκτείνονται και στη συνεργασία κυβερνήσεων με εταιρείες τεχνητής νοημοσύνης. Η απομάκρυνση της Anthropic από συμβάσεις με την αμερικανική κυβέρνηση ανέδειξε τη σύγκρουση γύρω από το πώς και υπό ποιους όρους μπορούν να χρησιμοποιηθούν τέτοιες τεχνολογίες.

Στη συνέχεια, οι ΗΠΑ στράφηκαν προς την OpenAI, με συμφωνίες που —τουλάχιστον επισήμως— αποκλείουν τη χρήση AI για μαζική παρακολούθηση ή πλήρως αυτόνομα όπλα. Παρά ταύτα, οι διαπραγματεύσεις συνεχίζονται και το τοπίο παραμένει ασαφές.

Ανησυχίες και ηθικά διλήμματα

Ερευνητές και εργαζόμενοι στον κλάδο προειδοποιούν για τους κινδύνους κατάχρησης της τεχνητής νοημοσύνης, ζητώντας σαφή όρια. Μελέτες επισημαίνουν ότι η αντικατάσταση της ανθρώπινης κρίσης από αλγορίθμους μπορεί να οδηγήσει ακόμη και σε ακούσια κλιμάκωση συγκρούσεων.

Γιατί η ρύθμιση παραμένει δύσκολη

Παρά τις διεθνείς πρωτοβουλίες, η επίτευξη συμφωνίας φαίνεται μακρινή. Οι βασικές στρατιωτικές δυνάμεις εμφανίζονται απρόθυμες να δεχθούν περιορισμούς, ενώ η ίδια η φύση της τεχνολογίας καθιστά δύσκολο τον σαφή ορισμό των αυτόνομων συστημάτων.

Όπως σημειώνουν ειδικοί, η τεχνητή νοημοσύνη έχει ήδη ενσωματωθεί βαθιά στις στρατιωτικές υποδομές — γεγονός που καθιστά τη ρύθμισή της ένα εξαιρετικά πολύπλοκο εγχείρημα.