Η Google εξηγεί τα AI αποτελέσματα που πρότειναν στον κόσμο να τρώει πέτρες και κόλα

Ξεκαθαρίζει μια και καλή την κατάσταση
31 Μαΐου 2024 17:39
Η Google εξηγεί τα AI αποτελέσματα που πρότειναν στον κόσμο να τρώει πέτρες και κόλα

Όπως σας είχαμε ενημερώσει, μέσα στο Μάιο η Google ξεκίνησε να μεταμορφώνει ολοκληρωτικά την πασίγνωστη μηχανή αναζήτησής της. Συγκεκριμένα, σε πολλές χώρες του εξωτερικού το Google Search ξεκίνησε να προβάλει τα λεγόμενα «AI Overviews», τα οποία παρέχουν στους χρήστες περιλήψεις που δημιουργούνται από τεχνητή νοημοσύνη στην κορυφή πολλών αποτελεσμάτων αναζήτησης. Έτσι, αντί η αναζήτηση να επιστρέφει μόνο ιστοσελίδες, προσπαθεί πρώτα να απαντήσει στα ερωτήματα των χρηστών με AI.

Δυστυχώς όμως για την Google, τα πράγματα δεν κύλισαν και τόσο ομαλά, αφού τα AI Overviews έγιναν viral για τους χειρότερους λόγους. Όπως έσπευσαν να επισημάνουν οι χρήστες στα social media, οι απαντήσεις της AI ήταν γεμάτες λανθασμένες πληροφορίες. Μεταξύ άλλων εντοπίστηκαν λάθη σε βασικές πληροφορίες για δημοφιλή πρόσωπα, όπως ο πρώην Πρόεδρος των ΗΠΑ, Barack Obama μέχρι άστοχες συμβουλές, όπως προτάσεις σε χρήστες να φάνε πέτρες και κόλα.

Με το όλο θέμα να παίρνει τεράστιες διαστάσεις λοιπόν, η Google ήρθε τώρα να ξεκαθαρίσει επιτέλους τι πραγματικά συνέβη. Συγκεκριμένα, μέσα από μια ανάρτηση στο επίσημο blog της εξήγησε τι ευθύνεται, αλλά και τι έκανε για να περιορίσει πλέον το φαινόμενο.

Η επικεφαλής του τμήματος αναζήτησης της Google, Liz Reid, έριξε την ευθύνη στα «κενά δεδομένων» για τα ανακριβή αποτελέσματα, μαζί με τους ανθρώπους που επινοούν περίεργες ερωτήσεις, και επανέλαβε τον ισχυρισμό ότι τα αποτελέσματα της τεχνητής νοημοσύνης οδηγούν σε «μεγαλύτερη ικανοποίηση» όσον αφορά την συνολική εμπειρία του Google Search. Η Reid υποστηρίζει ότι τα AI Overviews γενικά δεν έχουν θέμα με τις «παραισθήσεις», το γνωστό φαινόμενο που επηρεάζει πρακτικά όλα τα μεγάλα γλωσσικά μοντέλα, απλά ανέφερε ότι μερικές φορές παρερμηνεύουν τι υπάρχει ήδη στον ιστό.

Εξηγώντας, λοιπόν, τι πήγε στραβά, ανέφερε:

Εκτός από το σχεδιασμό των AI Overviews για τη βελτιστοποίηση της ακρίβειας, δοκιμάσαμε εκτενώς τη λειτουργία πριν από την κυκλοφορία της. Αυτό περιελάμβανε ισχυρές προσπάθειες red-teaming, αξιολογήσεις με δείγματα τυπικών ερωτημάτων χρηστών και δοκιμές σε ένα ποσοστό του traffic αναζήτησης για να δούμε πώς αποδίδει. Ωστόσο, δεν υπάρχει τίποτα καλύτερο από το να έχουμε εκατομμύρια ανθρώπους να χρησιμοποιούν τη λειτουργία με πολλές νέες αναζητήσεις. Είδαμε επίσης παράλογες νέες αναζητήσεις, που φαινομενικά αποσκοπούσαν στην παραγωγή λανθασμένων αποτελεσμάτων.

Επίσης, υπήρξε μεγάλος αριθμός πλαστών screenshots που μοιράστηκαν ευρέως. Ορισμένα από αυτά τα πλαστά αποτελέσματα ήταν προφανή και ανόητα. Άλλα είχαν υπονοήσει ότι επιστρέψαμε επικίνδυνα αποτελέσματα για θέματα όπως η παραμονή σκύλων σε αυτοκίνητα, το κάπνισμα κατά την εγκυμοσύνη και η κατάθλιψη. Αυτά τα AI Overviews δεν εμφανίστηκαν ποτέ. Επομένως, θα προτρέπαμε όποιον συναντά αυτά τα screenshots να κάνει ο ίδιος μια αναζήτηση για να τα ελέγξει.

Αλλά σίγουρα εμφανίστηκαν κάποιες περίεργες, ανακριβείς ή μη χρήσιμες AI απαντήσεις. Και ενώ αυτές αφορούσαν γενικά ερωτήματα που οι άνθρωποι δεν κάνουν συνήθως, αναδείχθηκαν ορισμένοι συγκεκριμένοι τομείς που έπρεπε να βελτιώσουμε.

Ένας τομέας που εντοπίσαμε ήταν η ικανότητά μας να ερμηνεύουμε μη λογικά ερωτήματα και σατιρικό περιεχόμενο.

[...]

Σε άλλα παραδείγματα, είδαμε AI Overviews που περιείχαν σαρκαστικό ή τρολ περιεχόμενο από φόρουμ συζητήσεων. Τα φόρουμ είναι συχνά μια εξαιρετική πηγή αυθεντικών πληροφοριών από πρώτο χέρι, αλλά σε ορισμένες περιπτώσεις μπορεί να οδηγήσουν σε συμβουλές που δεν είναι και τόσο χρήσιμες, όπως η χρήση κόλλας για να κολλήσει το τυρί στην πίτσα.

Σε έναν μικρό αριθμό περιπτώσεων, είδαμε τα AI Overviews να παρερμηνεύουν τη γλώσσα σε ιστοσελίδες και να παρουσιάζουν ανακριβείς πληροφορίες. Εργαστήκαμε γρήγορα για την αντιμετώπιση αυτών των προβλημάτων, είτε μέσω βελτιώσεων στους αλγορίθμους μας είτε μέσω καθιερωμένων διαδικασιών για την αφαίρεση των απαντήσεων που δεν συμμορφώνονται με τις πολιτικές μας.

Για να λύσει, λοιπόν, το πρόβλημα, η Google ξεκαθάρισε ότι έφτιαξε καλύτερους μηχανισμούς ανίχνευσης, για να μην εμφανίζονται AI Overviews σε ερωτήματα που δεν βγάζουν νόημα, ενώ ταυτόχρονα περιόρισε και την συμπερίληψη χιουμοριστικού και στηρικτικού περιεχομένου. Παράλληλα, ενημέρωσε το σύστημα για να περιορίσει το user-generated περιεχόμενο σε απαντήσεις που μπορεί να οδηγήσουν σε παραπλανητικές συμβουλές και έκανε πολύ πιο αυστηρά τα συστήματά καθοδήγησής της όσον αφορά τις ερωτήσεις που έχουν να κάνουν με τις ειδήσεις και θέματα υγείας.

Για περισσότερα, μπορείτε να διαβάσετε την αναλυτική της δημοσίευση σχετικά με το θέμα πατώντας εδώ.