Ακραία γκάφα από την καινούργια ΑΙ της Google σε συνταγή για πίτσα!
Πρόσφατα σας είχαμε ενημερώσει πως η αναζήτηση της Google θα άλλαζε για πάντα. Συγκεκριμένα, στο εξωτερικό το Google Search έχει ήδη ξεκινήσει να προβάλει τα λεγόμενα «AI Overviews», τα οποία παρέχουν στους χρήστες περιλήψεις που δημιουργούνται από την τεχνητή νοημοσύνη στην κορυφή πολλών αποτελεσμάτων αναζήτησης. Έτσι, αντί η αναζήτηση να επιστρέφει μόνο ιστοσελίδες, προσπαθεί πρώτα με AI να απαντήσει στα ερωτήματα των χρηστών.
Τώρα, μόλις μερικές ημέρες μετά την ευρύτερη διάθεση των «AI Overviews», η αναζήτηση τεχνητής νοημοσύνης της Google έγινε viral για τον χειρότερο λόγο. Περνώντας σε λεπτομέρειες, σε μια ανάρτηση που μετρά σχεδόν 2.5 εκατομμύρια προβολές στο μέσο κοινωνικής δικτύωσης X, η AI της Google φαίνεται να έκανε μια ακραία γκάφα που θα μπορούσε ενδεχομένως μέχρι και να αποβεί μοιραία!
Αναλυτικότερα, ο χρήστης έψαξε στο Google γιατί το «τυρί δεν κολλάει πάνω στην πίτσα». Στο πάνω-πάνω μέρος των αποτελέσματων, πριν προβάλει οποιαδήποτε ιστοσελίδα, η AI περιγραφή πρότεινε ως πρώτη συμβουλή στον χρήστη να αναμείξει λίγο τυρί στην σάλτσα ντομάτας και ίσως να βάλει και λίγη κόλλα!
Ναι, καλά διαβάσατε. Η ΑΙ της Google πρότεινε στον χρήστη να βάλει κόλλα στην σάλτσα της πίτσας του!
Google is dead beyond comparison pic.twitter.com/EQIJhvPUoI
— PixelButts (@PixelButts) May 22, 2024
Η απάντηση έγινε τόσο viral που ο κόσμος άρχισε να αναρωτιέται πως γίνεται η AI να απάντησε κάτι τέτοιο. Το τοπίο ήρθε να ξεκαθαρίσει ένα υψηλόβαθμο στέλεχος που εργάζεται στην εταιρία που είναι υπεύθυνη για το Roblox. Σύμφωνα με τον Peter Yand, η AI της Google έχει εκπαιδευτεί μεταξύ άλλων και πάνω σε δημόσια σχόλια του Reddit. Έτσι, έλαβε στα σοβαρά υπόψη ένα troll σχόλιο ενός χρήστη πριν από 11 χρόνια που ειρωνευόταν κάποιον που είχε κάνει την ίδια ερώτηση.
Παρακάτω μπορείτε να βρείτε τη σχετική του ανάρτηση που περιλαμβάνει το επίμαχο σχόλιο από το Reddit.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Αυτή είναι μια ακόμη υπενθύμιση λοιπόν, πως πρέπει να είμαστε πολλοί προσεκτικοί με το περιεχόμενο που παράγεται από ΑΙ, καθώς μπορεί να περιλαμβάνει σοβαρά λάθη. Το επικίνδυνο στην προκειμένη περίπτωση είναι πως η πρόταση ήταν το πρώτο πράγμα που εμφάνισε το Google, το οποίο για πάρα πολύ κόσμο είναι η βασική πηγή πληροφοριών του.
Προφανώς, αν σιγά σιγά ο κόσμος χάσει την εμπιστοσύνη του στη μηχανή αναζήτησης, η Google θα έχει ένα πολύ σοβαρό θέμα να διαχειριστεί, όπως έσπευσαν να επισημάνουν αρκετοί σχολιαστές στα social media.
Όπως και να ‘χει, είναι από τις περιπτώσεις που δεν πρέπει να το δοκιμάσετε στο σπίτι…
Ακολουθήστε το Unboxholics.com στο Google News για να μαθαίνετε πρώτοι τα τελευταία νέα για τεχνολογία, videogames, ταινίες και σειρές. Ακολουθήστε το Unboxholics.com σε Facebook, Twitter, Instagram, Spotify και TikTok.