Επικίνδυνη και ρατσίστρια η τεχνητή νοημοσύνη της Microsoft

Την απέσυρε η εταιρία μετά το φιάσκο της Tay AI στο Twitter
26 Μαρτίου 2016 07:16
Επικίνδυνη και ρατσίστρια η τεχνητή νοημοσύνη της Microsoft

Η Microsoft είχε τη φαεινή ιδέα να εκθέσει την τεχνητή νοημοσύνη που αναπτύσσει στο Twitter, για μια πιο γρήγορη στροφή στην εκμάθηση μηχανής. Έτσι αποκάλυψε την Tay, ένα Twitter bot το οποίο η εταιρία περιέγραψε ως πειραματικό στην κατανόηση ανθρώπινων συζητήσεων. “Όσο περισσότερο μιλάτε με την Tay, τόσο πιο έξυπνη θα γίνεται, μαθαίνοντας πώς να προσεγγίζει τους ανθρώπους μέσω καθημερινής και ευχάριστης συζήτησης” είπε η Microsoft. Δυστυχώς οι συζητήσεις δεν παρέμειναν ευχάριστες για πολύ, αφού η Tay έγινε δέκτης αρκετών ρατσιστικών κυρίως σχολίων τα οποία ξεκίνησε να αναπαράγει, σκορπώντας τον τρόμο στους χρήστες για το μέλλον μιας τεχνητής νοημοσύνης.

Όπως βλέπετε και από τα tweets της, κατάφερε να γίνει μέσα σε 24 ώρες από ένα ενδιαφέρον πείραμα σε ένα νέο-ναζιστικό λάτρη του Χίτλερ και τον πρακτικών του, αποδεικνύοντας περίτρανα πως το Internet δεν είναι το μέρος για να πραγματοποιηθεί η εκμάθηση μιας τεχνητής νοημοσύνης. Βέβαια μέσα από τα 96.000 tweets της, μπορεί να βρει κάποιος μια αχτίδα ελπίδας.

Τα φίλτρα της Microsoft δε λειτούργησαν όπως έπρεπε με αποτέλεσμα η Tay AI να δέχεται και να αναπαράγει οτιδήποτε και η εταιρία τρέχει και δε φτάνει για να “καθαρίσει” αρκετές χιλιάδες tweets από το timeline. Σε ανακοίνωση στο Business Insider δήλωσε πως “το AI chatbot Tay, είναι ένα project εκμάθησης μηχανής, σχεδιασμένο για ανθρώπινη αλληλεπίδραση. Καθώς μαθαίνει, κάποιες απαντήσεις της είναι ακατάλληλες και ενδεικτικές του τρόπου που μερικοί άνθρωποι την προσεγγίζουν. Κάνουμε κάποιες ρυθμίσεις στην Tay”. Έτσι εγείρεται το σημαντικό ερώτημα του πως θα μπορέσουμε να διδάξουμε μια τεχνητή νοημοσύνη χρησιμοποιώντας την αλληλεπίδραση με τους ανθρώπους χωρίς να ενσωματώσουμε τα χειρότερα χαρακτηριστικά της ανθρωπότητας;