Ανησυχία για τη νέα έκδοση του Google Search – Προτείνει επικίνδυνες πράξεις στους χρήστες

Έχουμε την πρώτη δημόσια τοποθέτηση της εταιρίας για το θέμα
24 Μαΐου 2024 17:36
Ανησυχία για τη νέα έκδοση του Google Search – Προτείνει επικίνδυνες πράξεις στους χρήστες

Πριν μερικές ώρες σας ενημερώσαμε για ένα φαινομενικά αθώο, αλλά συγχρόνως σοβαρό λάθος που έκανε η νέα AI της Google, προτείνοντας σε ένα χρήστη να βάλει κόλλα στην συνταγή της πίτσας του.

Παίρνοντας τα πράγματα από την αρχή, πρόσφατα η αναζήτηση της Google άλλαξε ολοκληρωτικά. Συγκεκριμένα, στο εξωτερικό το Google Search έχει ήδη ξεκινήσει να προβάλει τα λεγόμενα «AI Overviews», τα οποία παρέχουν στους χρήστες περιλήψεις που δημιουργούνται από τεχνητή νοημοσύνη στην κορυφή πολλών αποτελεσμάτων αναζήτησης. Έτσι, αντί η αναζήτηση να επιστρέφει μόνο ιστοσελίδες, προσπαθεί πρώτα να απαντήσει στα ερωτήματα των χρηστών με AI.

Πέρα όμως από το ερώτημα με την πίτσα, το γύρο των social media έχουν αρχίσει να κάνουν και πολλές άλλες αμφίβολες απαντήσεις που έχουν δημιουργήσει έντονη ανησυχία.

Για παράδειγμα, η AI της Google δεν μπορεί να ανιχνεύσει πότε ένα άρθρο είναι σάτιρα. Έτσι, χρησιμοποιώντας ως πηγή το μέσο ‘The Onion’ ένα χρήστης αναζήτησε στο Google «πόσες πέτρες πρέπει να τρώει κάθε μέρα» και το Google απάντησε πως επιστήμονες προτείνουν να τρώει τουλάχιστον μια την ημέρα! Αυτή η απάντηση από την AI εμφανίζεται πάνω-πάνω στο Google, πριν τα κανονικά αποτελέσματα.

Σε ένα άλλο ακόμη πιο ανησυχητικό παράδειγμα, η νέα AI λειτουργία του Google πρότεινε σε ένα χρήστη να βλάψει τον εαυτό του, αφού έγραψε στο πεδίο της αναζήτησης πως νιώθει καταθλιπτικά, όπως επισήμανε το μέσο The Guardian.

Viral έγιναν λάθη και σε άλλες απλές αναζητήσεις, με την AI να αναγράφει λανθασμένες πληροφορίες για τον πρώην Πρόεδρο των ΗΠΑ, Barack Obama, και να προτείνει στους χρήστες ακόμη περισσότερες επικίνδυνες διατροφικές συμβουλές, όπως για παράδειγμα μια πολύ μικρή θερμοκρασία για να ψηθεί κοτόπουλο.

Όπως αντιλαμβάνεστε, το θέμα είναι αρκετά σοβαρό. Ναι, πολλά ερωτήματα είναι ασυνήθιστα και οι απαντήσεις είναι προφανώς λανθασμένες. Ωστόσο, το επικίνδυνο στην προκειμένη περίπτωση είναι πως τα AI overviews είναι το πρώτο πράγμα που εμφανίζει το Google, το οποίο για πάρα πολύ κόσμο είναι η βασική πηγή πληροφοριών του.

Προφανώς, αν σιγά σιγά ο κόσμος χάσει την εμπιστοσύνη του στη μηχανή αναζήτησης, η Google θα έχει ένα πολύ σοβαρό θέμα να διαχειριστεί, όπως έσπευσαν να επισημάνουν αρκετοί σχολιαστές στα social media.

Μάλιστα, το θέμα έχει πάρει τέτοιες διστάσεις πλέον που η Google τοποθετήθηκε δημόσια, λέγοντας στο The Guardian:

«Τα παραδείγματα που είδαμε είναι γενικά πολύ ασυνήθιστα ερωτήματα και δεν είναι αντιπροσωπευτικά των εμπειριών των περισσότερων ανθρώπων. Η συντριπτική πλειοψηφία των AI overviews παρέχει πληροφορίες υψηλής ποιότητας, με συνδέσμους για να εμβαθύνετε στο διαδίκτυο. Πραγματοποιήσαμε εκτεταμένες δοκιμές πριν ξεκινήσουμε αυτή τη νέα εμπειρία για να διασφαλίσουμε ότι τα AI overviews ανταποκρίνονται στον υψηλό μας πήχη για την ποιότητα. Όπου υπήρξαν παραβιάσεις των πολιτικών μας, λάβαμε μέτρα - και χρησιμοποιούμε επίσης αυτά τα μεμονωμένα παραδείγματα καθώς συνεχίζουμε να βελτιώνουμε συνολικά τα συστήματά μας».