Κορυφαίος μηχανικός της OpenAI παραιτήθηκε και χτυπάει το καμπανάκι του συναγερμού

Δείτε τις ανησυχητικές του δηλώσεις
17 Μαΐου 2024 23:38
Κορυφαίος μηχανικός της OpenAI παραιτήθηκε και χτυπάει το καμπανάκι του συναγερμού

Πριν μερικά εικοσιτετράωρα μια από τις σημαντικότερες προσωπικότητες της OpenAI παραιτήθηκε. Ο λόγος γίνεται για τον Ilya Sutskever, ο οποίος ήταν συνιδρυτής της εταιρίας και ο επικεφαλής επιστήμονάς της, έχοντας τεράστια συνεισφορά στον τομέα της μηχανικής μάθησης γενικότερα. Μετά από αυτή την τεράστια απώλεια, ένας ακόμη σημαντικός ερευνητής της OpenAI μόλις κατέθεσε την παραίτησή του, ρίχνοντας συγχρόνως περισσότερο φως στα όσα συμβαίνουν πίσω από τα παρασκήνια.

Συγκεκριμένα, η OpenAI έχασε και τον Jan Leike, ο οποίος ήταν ο πρώην επικεφαλής της ‘Superalignment’ ομάδας. Πρακτικά είχε αναλάβει την ηγεσίας μιας ομάδας που ήταν αποκλειστικά αφοσιωμένη στο να βρει λύσεις για τους μακροπρόθεσμους κινδύνους της τεχνητής νοημοσύνης. Καθώς τα μοντέλα της OpenAI αρχίζουν να γίνονται όλο και πιο ικανά και προσεγγίζουν τις δυνατότητες των ανθρώπων, η Superalignment ομάδα θα αναλάμβανε να υλοποιήσει τα απαραίτητα πρωτόκολλα ασφαλείας.

Όμως, ένας ρεπορτάζ του Wired ήρθε πρόσφατα να προκαλέσει ανησυχίες, αφού αποκάλυψε ότι η OpenAI κατήργησε εντελώς την Superalignment ομάδα! Τώρα, η αποχώρηση του Leike είναι το κερασάκι στην τούρτα που επιβεβαίωσε το ρεπορτάζ, με τον ίδιο να κάνει μερικές αποκαλυπτικές δηλώσεις μέσα από τον προσωπικό του λογαριασμό στο X:

Το να αποχωρήσω από αυτή τη δουλειά ήταν ένα από τα πιο δύσκολα πράγματα που έχω κάνει ποτέ, επειδή πρέπει επειγόντως να βρούμε πώς να κατευθύνουμε και να ελέγχουμε συστήματα τεχνητής νοημοσύνης πολύ πιο έξυπνα από εμάς.

Συμμετείχα επειδή πίστευα ότι η OpenAI θα ήταν το καλύτερο μέρος στον κόσμο για να γίνει αυτή η έρευνα. Ωστόσο, διαφωνούσα με την ηγεσία της OpenAI σχετικά με τις βασικές προτεραιότητες της εταιρίας για αρκετό καιρό, μέχρι που τελικά φτάσαμε σε σημείο ρήξης.

Πιστεύω ότι πολύ περισσότερο από το εύρος ζώνης μας θα έπρεπε να δαπανηθεί για την προετοιμασία των επόμενων γενεών μοντέλων, για την ασφάλεια, την παρακολούθηση, την ετοιμότητα, την ανθεκτικότητα, την (υπερ)ευθυγράμμιση, την εμπιστευτικότητα, το κοινωνικό αντίκτυπο και συναφή θέματα.

Αυτά τα προβλήματα είναι αρκετά δύσκολο να λυθούν, και ανησυχώ ότι δεν είμαστε σε τροχιά για να φτάσουμε εκεί. Τους τελευταίους μήνες η ομάδα μου πλέει κόντρα στον άνεμο. Μερικές φορές παλεύαμε για υπολογιστική ισχύ και γινόταν όλο και πιο δύσκολο να κάνουμε αυτή την κρίσιμη έρευνα. Η κατασκευή μηχανών πιο έξυπνων από τον άνθρωπο είναι μια εγγενώς επικίνδυνη προσπάθεια.

Η OpenAI επωμίζεται μια τεράστια ευθύνη για λογαριασμό όλης της ανθρωπότητας. Αλλά τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφαλείας έχουν περάσει σε δεύτερη μοίρα μπροστά στα λαμπερά προϊόντα.

Για την ιστορία, η αρχική ιδέα πίσω από την OpenAI ήταν να παρέχει ανοιχτά τα μοντέλα της στο κοινό, εξ ου και το όνομα του οργανισμού. Ωστόσο, η OpenAI έχει αλλάξει φιλοσοφία και ισχυρίζεται πλέον ότι η πρόσβαση σε τόσο ισχυρά μοντέλα από οποιονδήποτε θα μπορούσε να είναι δυνητικά καταστροφική.