Όχι στα αυτόνομα οπλικά συστήματα λένε τεχνολογικοί ηγέτες 

Υπόσχεση να μην αναπτυχθούν ρομπότ δολοφόνοι

Όχι στα αυτόνομα οπλικά συστήματα λένε τεχνολογικοί ηγέτες

Εξέχουσες προσωπικότητες από τον τεχνολογικό τομέα δεσμευτήκαν να μην αναπτύξουν αυτόνομα οπλικά συστήματα. Μέσα σε αυτούς που υπέγραψαν ήταν ο Elon Musk, οι τρεις ιδρυτές της DeepMind και άλλοι ερευνητές και καθηγητές πανεπιστημίων που εξειδικεύονται στον χώρο της τεχνητής νοημοσύνης. Η υπογραφή της τελευταίας συνθήκης αποτελεί την κίνηση από έναν ανεπίσημο αλλά παγκόσμιο συνασπισμό ερευνητών και στελέχη εταιριών, που σαν σκοπό έχει τον περιορισμό της διάδοσης αυτής της τεχνολογίας. Η υπογραφή της συμφωνίας ανακοινώθηκε σήμερα στο 2018 International Joint Conference on Artificial Intelligence (IJCAI) που πραγματοποιήθηκε στην Στοκχόλμη και οργανώθηκε από το Future of Life Institute.

Μέχρι στιγμής όμως όλες οι προσπάθειες για περιορισμό της ανάπτυξης τέτοιων τεχνολογιών ήταν ανεπιτυχείς, για αυτόν το λόγο η συγκέντρωση και η συμφωνία όλων αυτών των προσωπικοτήτων και εταιριών θεωρείται μια μεγάλη επιτυχία. Οι επιστήμονες που συμμετείχαν στην σύσκεψη είπαν μεταξύ άλλων πως τα αυτόνομα οπλικά συστήματα θα έπρεπε να υπόκεινται στους ίδιους περιορισμούς με τα βιολογικά και χημικά όπλα και πως οι μηχανές δε θα έπρεπε να αποφασίζουν για την αφαίρεση μιας ανθρώπινης ζωής.

Παρακάτω μπορείτε να διαβάσετε όλο το κείμενο της συμφωνίας καθώς και να δείτε την πλήρη λίστα με όλα τα άτομα και τις εταιρίες που υπέγραψαν κάνοντας κλικ εδώ.

Η τεχνητή νοημοσύνη (AI) είναι έτοιμη να παίξει έναν ολοένα και αυξανόμενο ρόλο στα στρατιωτικά συστήματα. Υπάρχει επείγουσα ανάγκη και ευκαιρία για πολίτες, νομοθέτες και ηγέτες να διαχωρίσουν τις αποδεκτές και τις απαράδεκτες χρήσεις της AI.

Υπό αυτά τα δεδομένα, εμείς που συνυπογράψαμε συμφωνούμε πως  η απόφαση αφαίρεσης μιας ανθρώπινης ζωής ποτέ δε θα πρέπει να ανατεθεί σε μία μηχανή. Υπάρχει μια ηθική υπόσταση σε αυτήν τη θέση, σύμφωνα με την οποία δε θα έπρεπε να επιτρέψουμε στις μηχανές να παίρνουν αποφάσεις αφαίρεσης ζωής για τις οποίες άλλοι - ή και κανείς - θα είναι υπόλογοι.

Υπάρχει επίσης ένα ισχυρό, ρεαλιστικό επιχείρημα: τα αυτόνομα όπλα που θα επιλέγουν και θα κυνηγούν στόχους χωρίς ανθρώπινη παρέμβαση, θα αποσταθεροποιήσουν χώρες και ανθρώπους. Χιλιάδες ερευνητές AI συμφωνούν πως αφαιρώντας το ρίσκο, τον καταλογισμό ευθυνών και τη δυσκολία αφαίρεσης ανθρωπίνων ζωών, τα αυτόνομα οπλικά συστήματα θα γίνουν ισχυρά εργαλεία βίας και καταπίεσης, ειδικά όταν συνδέονται με συστήματα παρακολούθησης και ανάλυσης δεδομένων.

Εμείς που συνυπογράψαμε, καλούμε τις κυβερνήσεις και τους ηγέτες τους να δημιουργήσουν ένα μέλλον με ισχυρές διεθνείς πρακτικές, κανονισμούς και νόμους κατά των αυτόνομων οπλικών συστημάτων. Με τους νόμους να απουσιάζουν τώρα, πρέπει να θέσουμε τους εαυτούς μας σε υψηλότερα στάνταρ: δε θα συμμετέχουμε ούτε θα υποστηρίξουμε την ανάπτυξη, την κατασκευή, το εμπόριο και τη χρήση αυτόνομων οπλικών συστημάτων. Ζητάμε από τις τεχνολογικές εταιρίες, τους οργανισμούς, καθώς και από ηγέτες, νομοθέτες και άλλους ανθρώπους να κάνουν την ίδια δέσμευση. 

0 comment(s)