Οι Unboxholics μίλησαν με έναν ειδικό στην τεχνητή νοημοσύνη

Απαντήσεις σε κρίσιμα ερωτήματα
28 Μαΐου 2024 12:00
Οι Unboxholics μίλησαν με έναν ειδικό στην τεχνητή νοημοσύνη

Οι Unboxholics παραβρέθηκαν στην ημερίδα για την Ασφάλεια της Τεχνητής Νοημοσύνης που διοργάνωσε η Αντιδημαρχία Παιδείας Αθλητισμού και Πολιτισμού του Δήμου Αλμωπίας και ο Αντιδήμαρχος Πέτρος Τσαρκνιάς. Καλεσμένος και κεντρικός ομιλητής ήταν ένας ειδικός πάνω στην ασφάλεια της AI, o Γιάννης Σωτηρόπουλος. Ο κ. Σωτηρόπουλος είναι Σύμβουλος Ασφάλειας Πληροφορικής στην εταιρία Kainos του Ηνωμένου Βασιλείου εδώ και 35 χρόνια, επικεφαλής στο Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης των ΗΠΑ και ηγετικό στέλεχος της διεθνούς μη-κερδοσκοπικής ασφάλειας εφαρμογών πληροφορικής OWASP.

Η ημερίδα ξεκίνησε με μία παρουσίαση που είχε ετοιμάσει ο κ. Σωτηρόπουλος, αναφέροντας τις πιο σημαντικές αλλαγές που φέρνει στη ζωή μας η έλευση της τεχνητής νοημοσύνης.

Ποια είναι η εξέλιξη της AI; Πώς περάσαμε στα Large Language Models (LLMs) και τι είναι αυτά με απλά λόγια;

Πλέον βρισκόμαστε στην εποχή των Multimodal AI. Πώς δουλεύουν και ποιο είναι το επόμενο βήμα;

Ποια είναι τα προβλήματα που προκύπτουν στα αποτελέσματα που μας δίνει η AI; Μπορούμε να την εμπιστευτούμε;

Ποιοι είναι οι κίνδυνοι της AI για τον κόσμο αυτή τη στιγμή;

Υπάρχει κάτι που μπορούμε να κάνουμε εμείς για να προστατευτούμε από επιτήδειους που χρησιμοποιούν την AI;

Υπάρχουν τρόποι να έχουμε μία ασφαλή τεχνητή νοημοσύνη;

Είναι η AI η καταστροφή μας; Πρέπει να σταματήσουμε την εξέλιξή της ή να προσαρμοστούμε;

Όταν ήρθε η ώρα των ερωτήσεων, η πρώτη που θέλαμε να κάνουμε ήταν σχετική με την εργασία. Αρχικά λέγαμε πως η AI θα αντικαταστήσει τους ανθρώπους στις χειρωνακτικές εργασίες με τους αυτοματισμούς της. Τώρα βλέπουμε όμως πως μπαίνει σε τομείς υπηρεσιών ή ακόμα και καλλιτεχνικών εκφράσεων και αυτοί που πίστευαν πως δεν μπορεί να χάσουν τη δουλειά τους, τώρα βλέπουν πως μία AI μπορεί να κάνει τη δουλειά τους καλύτερα και πιο αποδοτικά. Είναι η AI μία μεγαλύτερη απειλή για τις θέσεις εργασίας, από αυτό που είχαμε δει στις προηγούμενες βιομηχανικές επαναστάσεις;

Η AI τροφοδοτείται με δεδομένα που της δίνουν οι άνθρωποι. Πώς μπορούμε να σιγουρευτούμε πως δεν υπάρχει προκατάληψη στις απαντήσεις της και πως δρα με αμεροληψία; Ποια μέτρα μπορούν να ληφθούν;

Δεδομένου ότι όλες οι μεγάλες AI έχουν αναπτυχθεί από τον ιδιωτικό τομέα και ότι η νομοθεσία είναι πάντα κάποια χρόνια πίσω, η προστασία μας από τους θεσμούς είναι σχεδόν ανύπαρκτη. Αν λάβουμε υπόψη πως αυτά τα μοντέλα εκπαιδεύονται από δικά μας δεδομένα – πολλές φορές χωρίς την άδειά μας – πώς μπορούμε να προστατευτούμε από αυτό; Για παράδειγμα, όπως αναφέρατε, μία AI μπορεί να αναλύσει με μερικά μόνο likes μας στο Facebook τις πολιτικές, σεξουαλικές και άλλου είδους προτιμήσεις και να χρησιμοποιήσει αυτά τα δεδομένα για να μας κατευθύνει να αγοράσουμε κάτι, να ψηφίσουμε κάτι κοκ.

Μία έρευνα προέβλεψε πως οι ενεργειακές ανάγκες της AI μέχρι το 2035 θα φτάσουν τα επίπεδα της Ιαπωνίας με πληθυσμό 125 εκατομμυρίων ανθρώπων. Σε έναν ενεργειακά πεινασμένο πλανήτη, πώς μπορούμε να ισορροπήσουμε την τροφοδότηση της AI με ηλεκτρισμό, έχοντας στο μυαλό μας τις αληθινές ανάγκες του ανθρώπου για ηλεκτρισμό αλλά ταυτόχρονα και το καλό του περιβάλλοντος;