Ρύθμιση τώρα για την τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη δεν συνιστά απειλή για τη Δημοκρατία αν υπάρξουν δικλείδες ασφαλείας, πιστεύει ο Nick Clegg της Meta.

Ρύθμιση τώρα για την τεχνητή νοημοσύνη
  • Συνέντευξη του Nick Clegg

Συνέντευξη του Nick Clegg, προέδρου παγκόσμιων υποθέσεων της Meta (Facebook) στη Liz Alderman, επικεφαλής ανταποκρίτρια ευρωπαϊκών επιχειρηματικών θεμάτων των «New York Times» στο πλαίσιο του Athens Democracy Forum 2023.

Προφανώς, έχουμε υψηλές προσδοκίες από την τεχνητή νοημοσύνη (Artificial Intelligence - ΑΙ), η οποία μπορεί να λύσει πολλά σημαντικά προβλήματα και να κάνει πιο εύκολη τη ζωή μας. Ωστόσο, εγκυμονεί και κινδύνους όπως η χειραγώγηση, η παραπληροφόρηση και η λανθασμένη ή κακοπροαίρετη χρήση της. Γιατί, λοιπόν, να πιστέψουμε ότι μπορεί να λειτουργήσει προς όφελος της Δημοκρατίας και όχι σαν μια πιθανή απειλή εναντίον της;

Νομίζω ότι θα πρέπει να είμαστε επιφυλακτικοί μέχρι να δούμε πώς θα εξελιχθούν τα πράγματα. Όπως κάθε σημαντική τεχνολογική καινοτομία, η ΑΙ μπορεί να χρησιμοποιηθεί για καλούς και για κακούς σκοπούς, από καλούς και κακούς ανθρώπους. Αυτό συνέβη από την εφεύρεση του αυτοκινήτου μέχρι το Internet, από το ραδιόφωνο μέχρι το ποδήλατο. Και νομίζω ότι είναι λογικό να προσπαθούμε να προβλέψουμε τα χειρότερα ή να φοβόμαστε τις τεχνολογίες που είναι δύσκολο να γίνουν ακόμα πλήρως αντιληπτές.

Επομένως, δεν είναι παράλογο που τους τελευταίους μήνες, ειδικά από τότε που το ChatGPT δημιούργησε το γλωσσικό του μοντέλο, επικεντρωθήκαμε στους πιθανούς κινδύνους που καραδοκούν. Νομίζω, μάλιστα, πως ορισμένοι από αυτούς τους κινδύνους (ή τουλάχιστον από τον τρόπο με τον οποίο περιγράφονται) τρέχουν πιο γρήγορα από την ίδια την τεχνολογία! Η ιδέα της ΑΙ έχει ανοίξει τη συζήτηση για την «αυτονομία των μηχανών» και τη «δαιμονική» τους επιθυμία να καταστρέψουν την ανθρωπότητα.

Μάλλον δεν είμαστε σε κατάσταση… «Terminator 2».

Ακριβώς. Μιλάμε για συστήματα που δεν ξέρουν τίποτα. Δεν έχουν καμία ουσιαστική αυτονομία. Είναι εξαιρετικά ισχυρά και εξελιγμένα εργαλεία, που μπορούν να επιμερίσουν τεράστιες ποσότητες δεδομένων και να συνεκτιμήσουν δισεκατομμύρια παραμέτρους, για να αναγνωρίσουν μοτίβα σε μια ασύλληπτη σειρά συνόλων και σημείων δεδομένων.

Το υπάρχον μοντέλο AI είναι αναπαραγωγικό. Μπορεί να προβλέψει την επόμενη λέξη σε ένα κείμενο, αλλά δεν γνωρίζει την εγγενή σημασία αυτών των λέξεων. Επομένως, πρέπει να αποβάλουμε κάποιους από τους φόβους μας. Ωστόσο, η τεχνητή νοημοσύνη, όπως οι περισσότερες τεχνολογικές καινοτομίες, θα επιταχύνει τη λύση σύγχρονων προβλημάτων. Για παράδειγμα, είναι ενθαρρυντική η πρόοδος που έχει σημειωθεί τα τελευταία χρόνια στην εξάλειψη της ρητορικής μίσους στα μέσα κοινωνικής δικτύωσης.

Σύμφωνα με τα δεδομένα μας, η ρητορική μίσους στο Facebook κυμαίνεται πλέον μεταξύ 0,01%-0,02%. Με λίγα λόγια, σε 10.000 bits περιεχομένου, θα δείτε μία ή δύο αναρτήσεις με ρητορική μίσους. Μακάρι να ήταν μηδέν, αλλά δεν νομίζω πως θα φτάσουμε ποτέ εκεί. Ωστόσο, μειώθηκε περίπου 50%-60% λόγω της προόδου της ΑΙ.

Εάν παραμετροποιήσουμε την ΑΙ για να αναγνωρίζει ένα μοτίβο (στο συγκεκριμένο παράδειγμα, αναρτήσεις με ρητορική μίσους), μπορεί να γίνει ένα απίστευτα αποτελεσματικό εργαλείο σε αυτόν τον τομέα. Εάν οι πολιτικές, τα συστήματα και η τεχνολογία μας λειτουργούν όπως πρέπει, με ρυθμίσεις και κανόνες, ίσως πρέπει να αποδεχθούμε την άγνοιά μας για το αν κάτι δημιουργήθηκε από μία μηχανή ή από έναν άνθρωπο.

Ο Mark Zuckerberg είχε πει ότι πρόκειται να κυκλοφορήσει ελεύθερα τον κώδικα AI της Meta, για το ευρύτερο καλό. Έτσι, άνθρωποι απ’ όλο τον κόσμο θα μπορούσαν να τον μάθουν και να τον βελτιώσουν. Ωστόσο, αυτή η ιδέα προκάλεσε μεγάλες αντιδράσεις.

Αν κοιτάξετε την ιστορία του Internet, έχει χτιστεί πάνω σε ανοιχτό κώδικα, δηλαδή σε κώδικα που είναι διαθέσιμος προς όλους και όχι μόνο στον δημιουργό του. Συχνά, μάλιστα, αυτό αποδεικνύεται πιο καινοτόμο, αλλά και πιο ασφαλές, καθώς διαμορφώνεται από τη σοφία των πολλών.

Φυσικά, υπάρχουν περιπτώσεις που ο κώδικας δεν πρέπει να είναι ανοιχτός. Πριν από λίγο καιρό, οι ερευνητές μας εντόπισαν ένα εξαιρετικά ισχυρό εργαλείο, το οποίο μπορεί από ένα ελάχιστο απόσπασμα της χροιάς της φωνής σου, να τη μιμηθεί τέλεια και σε μεγάλο εύρος. Προφανώς ο κώδικας αυτής της εφαρμογής δεν πρέπει να είναι ανοιχτός. Αλλά όπου είναι δυνατόν, ο κώδικας πρέπει να είναι ανοιχτός για να εκδημοκρατίζεται η πρόσβαση στην τεχνολογία. Έτσι δεν θα έχουν την αποκλειστικότητα σε νέες τεχνολογίες μόνο μια χούφτα αμερικάνικοι και κινέζικοι τεχνολογικοί κολοσσοί.

Ωστόσο, αν ποτέ βρεθούμε αντιμέτωποι με το δυστοπικό σενάριο όπου η ΑΙ θα αποκτήσει αυτονομία και αυτενέργεια, τότε θα μιλήσουμε τελείως διαφορετικά. Η συζήτηση θα αλλάξει τελείως.

Ζήτησα από το ChatGPT να κάνει μερικές ερωτήσεις στον Nick Clegg σχετικά με το πόσο κινδυνεύει η Δημοκρατία από την τεχνητή νοημοσύνη. Θα σας θέσω μία από αυτές: «Έχουμε 2 δισεκατομμύρια ανθρώπους ανά τον κόσμο που το επόμενο έτος θα ψηφίσουν σε εκλογές. Γνωρίζουμε ότι η AI (κι αυτό το ρωτά η ίδια η ΑΙ) χρησιμοποιείται όλο και περισσότερο για τη χειραγώγηση των ψηφοφόρων. Μπορούν οι εταιρείες τεχνολογίας να το χειριστούν αυτό;».

Πιστεύω ότι αξίζει να δούμε το θέμα από εννοιολογική άποψη. Υπάρχει πρώτα η δημιουργία μιας πληροφορίας και μετά η διακίνησή της. Ένα από τα πράγματα που πρέπει να επιλύσουμε είναι να βρούμε τρόπο να διαχωρίζουμε πότε κάτι έχει δημιουργηθεί μέσω ΑΙ και πότε όχι, είτε μέσω κάποιου ορατού είτε μέσω μη ορατού «υδατογραφήματος». Αν καταφέρουμε να το πετύχουμε αυτό στις διάφορες πλατφόρμες, τότε θα είναι εύκολο να περιορίσουμε τη διακίνηση ανεπιθύμητου υλικού.

Ανησυχώ ότι ξοδεύουμε πολύ χρόνο και ενέργεια σε εικασίες για υποτιθέμενες απειλές από την τεχνητή νοημοσύνη, που μπορεί να συμβούν, μπορεί και όχι, ενώ βρισκόμαστε λίγο πριν από τη στιγμή που 2 δισεκατομμύρια άνθρωποι θα πρέπει να ψηφίσουν και χρειαζόμαστε κοινά πρότυπα «υδατογράφησης» για να εντοπίζουμε αν κάτι έχει δημιουργηθεί μέσω ΑΙ ή όχι. Στο Facebook, για παράδειγμα, μπορούμε να εφαρμόσουμε τέτοια εργαλεία. Ωστόσο, αν δεν κάνουν όλες οι πλατφόρμες το ίδιο, δημιουργείται σύγχυση στους χρήστες κι εμείς δεν μπορούμε να ελέγχουμε το περιεχό-μενο που προβάλλεται στην πλατφόρμα μας από άλλες πλατφόρμες.

Κάνατε λόγο για ρυθμίσεις και κανόνες. Γιατί πρέπει το κοινό να πιστέψει το ότι ένας τεχνολογικός κολοσσός μπορεί να αυτορυθμιστεί ή να τηρήσει κάποιες κατευθυντήριες γραμμές, όταν δεν έχει δώσει και τα καλύτερα δείγματα γραφής στο θέμα παλιότερα;

Δεν είναι αυτό που προτείνει η βιομηχανία τεχνολογίας. Η βιομηχανία τεχνολογίας λέει ότι πρέπει να υπάρξει ρυθμιστικό πλαίσιο, αλλά η δημιουργία του προχωρά αργά.

Το μόνο πράγμα που μπορούμε να κάνουμε αυτή τη στιγμή, ελλείψει ρυθμιστικού πλαισίου, είναι οι δεσμεύσεις που βάζει η ίδια η εταιρεία αυτοβούλως στον εαυτό της. Νομίζω ότι όλοι στη βιομηχανία τεχνολογίας αναγνωρίζουν ότι χρειάζονται αυστηρά νομικά προστατευτικά κιγκλιδώματα. Όμως, επειδή δεν υπάρχουν, οι εταιρείες ρίχνουν το μπαλάκι στη νομοθεσία και κάνουν ό,τι θέλουν. Λένε ότι χρειάζονται ενιαία πρότυπα για τη διαφάνεια και ότι πρέπει να υπάρχει συνεργασία σε ολόκληρο τον κλάδο για την «υδατογράφηση» και αυτό που ονομάζεται «προέλευση και ανιχνευσιμότητα». Ωστόσο, ο κλάδος προχωρά χωρίς νόμους και χωρίς οι νομοθέτες να επεξεργάζονται τα νέα δεδομένα.

Υπάρχει πάντα αυτή η αναντιστοιχία μεταξύ της ταχύτητας με την οποία αναπτύσσεται η τεχνολογία και του ρυθμού με τον οποίο διαμορφώνεται η νομοθεσία. Το δεύτερο είναι πάντα πιο αργό από το πρώτο. Η ανησυχία μου είναι ότι αυτή η αναντιστοιχία υπάρχει και τώρα που κάνουμε τη συζήτηση για το «αν πλησιάζει το τέλος του κόσμου από τις μηχανές», και νομίζω πως αυτό δεν βοηθά καθόλου.

© 2023 The New York Times Company

v