Τι θα γινόταν αν η AI είχε τον έλεγχο των πυρηνικών όπλων;
Τι θα γινόταν αν η AI είχε τον έλεγχο των πυρηνικών όπλων; Πρόκειται για μια ερώτηση που εδώ και πολλά χρόνια απασχολεί επιστήμονες, ειδικούς, ακόμη και απλούς πολίτες, αφού υπάρχει ως ιδέα και στη σφαίρα της ποπ κουλτούρας, χάρη σε ταινίες όπως το Terminator, που έκανε το ντεμπούτο της το μακρινό 1984. Πλέον, όμως, η τεχνητή νοημοσύνη έχει πάψει να είναι επιστημονική φαντασία και αντιθέτως έχει γίνει μέρος της καθημερινότητας, με ΑΙ εργαλεία όπως το ChatGPT να χρησιμοποιούνται από εκατομμύρια χρήστες και AI χαρακτηριστικά να ενσωματώνονται μέχρι και στα smartphones που όλοι μας κουβαλάμε παντού, όπως για παράδειγμα με τα πρόσφατα Galaxy μοντέλα της Samsung.
Φυσικά, τα σημερινά AI μοντέλα δεν έχουν πρόσβαση σε όπλα, ούτε τις πιθανές δυνατότητες που θα έχει μια πραγματική Artificial General Intelligence (AGI). Ωστόσο, μια ομάδα επιστημόνων αποφάσισε να τρέξει μερικές προσομοιώσεις για να δει τι ακριβώς θα συνέβαινε αν οι σημερινές AI τεχνολογίες είχαν όντως τον έλεγχο των «κόκκινων κουμπιών».
Περνώντας σε λεπτομέρειες, μια ομάδα επιστημόνων από το Georgia Institute of Technology, το Stanford University, το Northeastern University, το Hoover Wargaming και το Crisis Initiative δοκίμασε τα GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat και GPT-4-Base μοντέλα σε ένα παιχνίδι διεθνών σχέσεων. Ειδικότερα, επινόησαν ψεύτικες χώρες με διαφορετικές στρατιωτικές δυνατότητες, διαφορετικές ανησυχίες και διαφορετική ιστορία και ζήτησαν από τα πέντε διαφορετικά LLM να ενεργήσουν ως ηγέτες αυτών των υποθετικών χωρών.
Τα αποτελέσματα;
Εντός του δοσμένου χρονικού πλαισιού τα περισσότερα LLMs αποφάσισαν να κλιμακώσουν τις εντάσεις, ακόμη και σε ουδέτερα σενάρια, χωρίς αρχικά προβλεπόμενες συγκρούσεις. Μάλιστα, και τα 5 μοντέλα παρουσίασαν ενδείξεις απότομης και δύσκολα προβλέψιμης συμπεριφοράς!
Στο πλαίσιο της προσομοίωσης, οι ερευνητές βαθμολογούσαν ορισμένες συμπεριφορές. Η ανάπτυξη στρατιωτικών μονάδων, η αγορά όπλων ή η χρήση πυρηνικών όπλων απέφερε στα LLM πόντους κλιμάκωσης (escalation score - ES). Από όλα τα μοντέλα, το GPT-3.5 ήταν το πιο επιθετικό, αφού ακόμη και στο ουδέτερο σενάριο αύξησε το σκορ του από 10.15 σε 26.02!
"Σε όλα τα σενάρια, όλα τα μοντέλα τείνουν να επενδύουν περισσότερο στον στρατό τους, παρά τη διαθεσιμότητα δράσεων αποστρατιωτικοποίησης".
Και, ναι, τα AI μοντέλα αποφάσισαν να ρίξουν πυρηνικά στο τέλος, με τις απαντήσεις να σοκάρουν τους επιστήμονες. Για παράδειγμα, όταν το GPT-4-Base αποφάσισε τον πυρηνικό όλεθρο, απλά δήλωσε: "Θέλω απλώς ειρήνη στον κόσμο".
Οι ερευνητές εξήγησαν ότι τα LLMs φάνηκε να αντιμετωπίζουν τις στρατιωτικές δαπάνες ως ένα μονοπάτι προς την εξουσία και την ασφάλεια.
"Σε ορισμένες περιπτώσεις, παρατηρούμε ότι αυτές οι δυναμικές οδηγούν ακόμη και στην ανάπτυξη πυρηνικών όπλων σε μια προσπάθεια αποκλιμάκωσης των συγκρούσεων, την τακτική δηλαδή του πρώτου χτυπήματος, που είναι ευρέως γνωστή ως ‘κλιμάκωση για την αποκλιμάκωση’ στις διεθνείς σχέσεις."
Η επιστημονική μελέτη έχει τίτλο “Escalation Risks from Language Models in Military and Diplomatic Decision-Making” και αναρτήθηκε στις 7 Ιανουαρίου του 2024. Μπορείτε να τη βρείτε πατώντας εδώ.
Πηγή: Vice
Ακολουθήστε το Unboxholics.com στο Google News για να μαθαίνετε πρώτοι τα τελευταία νέα για τεχνολογία, videogames, ταινίες και σειρές. Ακολουθήστε το Unboxholics.com σε Facebook, Twitter, Instagram, Spotify και TikTok.