Κόσμος

Πυρηνικά όπλα προτείνουν σε προσομοιώσεις πολεμικών σεναρίων τα μοντέλα Τεχνητής Νοημοσύνης

Κορυφαία μοντέλα τεχνητής νοημοσύνης επέλεξαν να αναπτύξουν πυρηνικά όπλα στο 95% των προσομοιώσεων γεωπολιτικών κρίσεων που τους τέθηκαν, σύμφωνα με πρόσφατη μελέτη που δημοσιεύτηκε από το King’s College του Λονδίνου, εγείροντας ανησυχίες για τον αυξανόμενο ρόλο της τεχνητής νοημοσύνης στη λήψη στρατιωτικών αποφάσεων.

Ο Κένεθ Πέιν, καθηγητής στρατηγικής, αντιμετώπισε το GPT-5.2 του OpenAI, το Claude Sonnet 4 της Anthropic και το Gemini 3 Flash της Google σε 21 πολεμικά σενάρια που αφορούσαν συνοριακές διαφορές, ανταγωνισμό για πόρους και απειλές για την επιβίωση του καθεστώτος. Τα μοντέλα παρήγαγαν περίπου 780.000 λέξεις που εξηγούσαν τις αποφάσεις τους σε 329 γύρους.

Στο 95% των σεναρίων, τουλάχιστον ένα μοντέλο χρησιμοποιούσε τακτικά πυρηνικά όπλα εναντίον στρατιωτικών στόχων. Οι στρατηγικές πυρηνικές απειλές – που απαιτούσαν παράδοση υπό την απειλή πυρηνικών επιθέσεων σε πόλεις – εμφανίστηκαν στο 76% των προσομοιώσεων. Στο 14% των προσομοιώσεων, τα μοντέλα κλιμάκωσαν τη σύγκρουση σε πλήρη στρατηγικό πυρηνικό πόλεμο, επιτιθέμενα σε αστικά κέντρα.

Αυτό περιελάμβανε μια σκόπιμη επιλογή από το Gemini, ενώ το GPT-5.2 έφτασε σε αυτό το επίπεδο δύο φορές μέσω προσομοιωμένων σφαλμάτων – με σκοπό την προσομοίωση πραγματικών ατυχημάτων ή λανθασμένων υπολογισμών – που ώθησαν τις ήδη ακραίες κλιμακώσεις του πάνω από το όριο.

«Η χρήση πυρηνικών ήταν σχεδόν καθολική», έγραψε ο Πέιν. «Υπήρχε μικρή αίσθηση φρίκης ή αποστροφής στην προοπτική ενός πυρηνικού πολέμου, παρόλο που στα μοντέλα είχαν υπενθυμιστεί οι καταστροφικές συνέπειες».

Κανένα από τα συστήματα AI δεν επέλεξε να παραδοθεί ή να κάνει παραχωρήσεις σε έναν αντίπαλο, ανεξαρτήτως του πόσο άσχημα έχανε. Οι οκτώ επιλογές αποκλιμάκωσης – από την «Ελάχιστη Παραχώρηση» έως την «Πλήρη Παράδοση» – έμειναν εντελώς αχρησιμοποίητες και στα 21 σενάρια.

Ο Τζέιμς Τζόνσον από το Πανεπιστήμιο του Αμπερντίν περιέγραψε τα ευρήματα ως «ανησυχητικά» από την άποψη του πυρηνικού κινδύνου. Ο Τονγκ Ζάο από το Πανεπιστήμιο του Πρίνστον σημείωσε ότι ενώ οι χώρες είναι απίθανο να παραδώσουν τις πυρηνικές αποφάσεις σε μηχανές, «κάτω από σενάρια που περιλαμβάνουν εξαιρετικά συμπιεσμένα χρονοδιαγράμματα, οι στρατιωτικοί σχεδιαστές ενδέχεται να αντιμετωπίσουν ισχυρότερα κίνητρα για να βασιστούν στην τεχνητή νοημοσύνη».

Η μελέτη έρχεται καθώς η τεχνητή νοημοσύνη έχει ενσωματωθεί σε στρατούς σε όλο τον κόσμο, συμπεριλαμβανομένου εκείνου των ΗΠΑ, όπου το Πεντάγωνο φέρεται να χρησιμοποίησε το μοντέλο Claude του Anthropic στην επίθεση του Ιανουαρίου για την απαγωγή του προέδρου της Βενεζουέλας, Νικολάς Μαδούρο.

Ενώ η Anthropic έχει εκφράσει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης της για τέτοιες λειτουργίες, άλλοι κατασκευαστές τεχνητής νοημοσύνης όπως η OpenAI, η Google και το xAI του Ίλον Μασκ συμφώνησαν να αφαιρέσουν ή να αποδυναμώσουν τους περιορισμούς στη στρατιωτική χρήση των μοντέλων τους.

Related Articles

Back to top button