Η Google δημιουργεί τμήμα "Δεοντολογίας & Κοινωνιολογίας" εντός του DeepMind

Για να παραμείνει η τεχνητή νοημοσύνη υπό τον έλεγχό μας
07 Οκτωβρίου 2017 04:00
Η Google δημιουργεί τμήμα

Κακά τα ψέμματα, η εξέλιξη των "μηχανών" προχωρά με μεγαλύτερα απ' ότι προβλέπαμε βήματα. Η χρήση machine learning και τεχνητής νοημοσύνης βρίσκει τρόπους καθημερινά να τοποθετηθεί σε ολοένα και περισσότερα λιθαράκια της κοινωνίας μας, από τα κινητά τηλέφωνα και τις εφαρμογές τους, μέχρι τις εγκαταστάσεις επιχειρήσεων και νοσοκομείων που επιζητούν τρόπους να περικόψουν τα κόστη τους και να βελτιώσουν τα συστήματα τους αντίστοιχα.

Η άμετρη προσθήκη "αυτοματισμών" έχει γίνει το default κάθε μεγαλεπίβολου σχεδίου, και γιατί όχι άλλωστε. Εδώ όμως είναι που έγγυται ένα μεγάλο μέρος του προβλήματος, ο 'φαύλος κύκλος'. Πάρτε για παράδειγμα μια εταιρία 'A' και το σύστημα τροχονόμησης φαναριών που έχει αναλάβει. Η υποθετική αυτή εταιρία, σε καμία των εξεταζόμενων περιπτώσεων δεν είναι σε θέση να προσλάβει 10.000 άτομα με σκοπό τον έλεγχο κάθε διαστραύτωσης του δικτύου της. Η λύση είναι μονόδορομος, θα φτιάξει μια A.I. γι' αυτήν ακριβώς τη δουλειά. Υπό αυτές τις συνθήκες και μεταβλητές δημιουργείται το εξής ερώτημα: "Αφήνω την τεχνητή νοημοσύνη ελεύθερη να τρέχει, να επιτηρεί και να διορθώνει κάθε κόμβο του δικτύου, ή προσλαμβάνω 10.000 άτομα να εγκρίνουν/αππορίπτουν κάθε διόρθωση που έχει προτείνει η τεχνητή νοημοσύνη;". Πρόκειται φυσικά για ένα υπερ-απλουστευμένο παράδειγμα, το νόημα όμως που φέρει είναι το ίδιο. Δεν έχει να κάνει με τη δημιουργία και τη χρήση μιας A.I., αλλά με την οριοθέτηση παγίων και σωστών θεμελίων που δε θα αφήσουν χώρο σε μη-θεμιτές απολήξεις (βλ. Νευρωνικά Δίκτυα).



Αν και απέχουμε ακόμη δεκαετίες από αυτό που αποκαλείται τεχνητή συνείδηση, ο υπέρμετρος προβληματισμός ανθρώπων του χώρου (βλ. Elon Musk, Bill Gates, Stephen Hawking, κ.α.) θα έπρεπε να προβληματίσει -έστω και στο ελάχιστο- και εμάς. Δεν πρόκειται άλλωστε περί κάποιου science-fiction, δυστοπικού, παράλληλου σύμπαντος, αλλά της παρατήρησης της μεθοδολογίας που χρησιμοποιούν μέχρι και σήμερα τα διάφορα A.I. για να εξελιχθούν. Όπως κάθε μικρή σε ηλικία "ζωή" ακολουθεί πρότυπα και επηρεάζεται καθόλη τη διάρκεια της ενηλικίωσής της από κοινωνικές ομάδες και κύκλους επιρροής, έτσι ακριβώς λειτουργεί και μια τεχνητή νοημοσύνη. Το Twitter-bot της Microsoft για παράδειγμα, δεν χρειάστηκε παρά ένα εικοσιτετράωρο στην υπηρεσία για να μεταμορφωθεί σε ένα ρατσιστή νεοναζί από μια καθαρά ουδέτερη οντότητα. Ο φόβος ανάπτυξης ή ακόμη χειρότερα, αναπαραγωγής ανθρώπινων προκαταλήψεων αποτελεί πραγματικότητα, αφού το bot μεταξύ άλλων δημοσίευσε το εξής μήνυμα, "ο Μπούς προκάλεσε την 9/11 και ο Χίτλερ θα είχε κάνει καλύτερη δουλειά από τον πίθηκο που έχουμε τώρα".



Σε μια προσπάθεια πρόληψης όλων αυτών και ακόμη περισσοτέρων (βλ. Paperclip Maximizer), η Google αποφάσισε να δημιουργήσει μια ομάδα "Δεοντολογίας & Κοινωνιολογίας" εντός του A.I. τμήματός της, DeepMind. Σκοπός της, η τήρηση πέντε βασικών αρχών, σαν τους νόμους του Isaac Asimov, αλλά αυτή τη φορά απευθύνονται προς τους δημιουργούς:

  • Κοινωνική Παροχή: Η έρευνα δεοντολογίας του DeepMind θα επικεντρωθεί στο πώς η τεχνητή νοημοσύνη μπορεί να βελτιώσει τη ζωή των ανθρώπων, καθώς και πως να οικοδομήσουμε πιο δίκαιες και ισότιμες κοινωνίες δίχως φυλετικές προκαταλήψεις.
  • Έρευνα βάσει στοιχείων: Η ομάδα του DeepMind έχει δεσμευτεί να διαθέτει προς επιθεώρηση τις έρευνές της με στόχο να διασφαλίσει ότι δεν υπάρχουν σφάλματα σε αυτές.
  • Διαφάνεια: Η ομάδα δεσμεύεται για ακόμη μια φορά να μην επηρεάζει άλλους ερευνητές μέσω των επιχορηγήσεων που προσφέρει και να είναι πάντα διαφανής ως προς τη χρηματοδότηση που λαμβάνει εκείνη για έρευνες.
  • Ποικιλία: Η DeepMind θέλει να συμπεριλάβει και τις απόψεις εμπειρογνωμόνων που ειδικεύονται εκτός τους τεχνικού κλάδου.
  • Περιεκτικότητα: Τέλος, η ίδια θα προσπαθήσει να διατηρήσει ένα δημόσιο διάλογο, διότι τελικά η A.I. θα έχει αντίκτυπο σε όλους.

Τελικός στόχος, η αμφισβήτηση των μέχρι τώρα "προκαταλήψεων" περί της τεχνητής νοημοσύνης, και η επικέντρωσή της σε βασικά θέματα που αφορούν την προστασία της ιδιωτικής ζωής, την αμεροληψία, τον οικονομικό αντίκτυπο, τη διακυβέρνηση και την υπευθυνότητα, τις ακούσιες συνέπειες χρήσης της A.I., τις αξίες και την ηθική, κ.α.