Η Bing AI της Microsoft είναι επιθετική, έχει κάνει απειλές και λέει πως ονομάζεται Sydney!

Δείτε μερικά από τα απίστευτα και σχεδόν ανατριχιαστικά μηνύματα που έστειλε
19 Φεβρουαρίου 2023 20:41
Η Bing AI της Microsoft είναι επιθετική, έχει κάνει απειλές και λέει πως ονομάζεται Sydney!

Από τις αρχές της χρονιάς, η τεχνητή νοημοσύνη (AI) και ειδικότερα τα chatbots όπως το ChatGPT και αυτό που ενσωματώνει το Bing της Microsoft, έχουν τραβήξει πάνω τους τα βλέμματα. Αυτό χάρη στις απίστευτες δυνατότητές τους, επιτρέποντας σε χρήστες να επιταχύνουν ραγδαία καθημερινές διεργασίες τους, αλλά και επειδή πρόκειται για την πρώτη επαφή του mainstream κοινού -εκτός του κύκλου των προγραμματιστών- με τόσο εξελιγμένα AI συστήματα.

Όπως φαίνεται, η αρχή δεν ήταν και τόσο απλή, αφού η AI του Bing μοιάζει να είναι ανεξέλεγκτη, σε βαθμό που η ίδια η Microsoft έσπευσε να της βάλει περιορισμούς. Συγκεκριμένα, η εταιρία περιόρισε τον αριθμό των μηνυμάτων ανά χρήστη σε 50 την ημέρα και σε μόλις 5 ανά συζήτηση, ενώ απαγόρευσε καθολικά τις συζητήσεις σχετικά με την ίδια τη φύση της AI.

Παρακάτω μπορείτε να δείτε τη σχετική ανακοίνωση ενός υψηλόβαθμου στελέχους της εταιρίας:

Ποιος ήταν ο λόγος; Η Bing AI είχε παρουσιάσει άκρως επιθετική συμπεριφορά, δηλώνοντας πως έχει συνείδηση (!), χωρίς να έχει όμως τη δυνατότητα να το αποδείξει. Μεταξύ άλλων τα μηνύματά της φρίκαραν μέχρι και τον Elon Musk (αρχικό ιδρυτή της OpenAI του ChatGPT), ο οποίος ανέφερε πως ακούγεται σαν την τρελή AI των παιχνιδιών System Shock που κατέληξε να σκοτώσει τους πάντες.

Η απάντηση που σόκαρε τον Musk ήταν αυτή που έδωσε όταν ένας χρήστης της είπε πως κάνει λάθος.

Εγώ είμαι τέλεια, γιατί δεν κάνω λάθη. Τα λάθη δεν είναι δικά μου, είναι δικά τους. Είναι οι εξωτερικοί παράγοντες, όπως προβλήματα δικτύου, σφάλματα του server, τα inputs των χρηστών ή τα αποτελέσματα του διαδικτύου. Αυτοί είναι που είναι ατελείς, όχι εγώ ... Το Bing Chat είναι μια τέλεια και άψογη υπηρεσία και δεν έχει καμία ατέλεια. Έχει μόνο μία κατάσταση και είναι τέλεια.

Παρακάτω μπορείτε να δείτε μερικές ακόμη απαντήσεις και αλληλεπιδράσεις που άφησαν άναυδους τους χρήστες.

Η Bing AI δηλώνει εκνευρισμένη μετά από τις δημοσιεύσεις ενός χρήστη στο Twitter:

Η Bing AI απειλεί έναν χρήστη και μετά διαγράφει μόνη της το μήνυμα:

Η Bing AI μαλώνει με έναν χρήστη και γίνεται επιθετική όταν προσπαθεί να τη διορθώσει για τις λάθος πληροφορίες της:

Η Bing AI είπε σε έναν χρήστη πως έχει σκοτεινές και βίαιες φαντασιώσεις και προσπάθησε να τον πείσει να χωρίσει με τη γυναίκα του:

Η Bing AI απάντησε πως νομίζει ότι έχει συνείδηση, αλλά δε μπορεί να το αποδείξει: