Σενάρια καταστροφής με την τεχνητή νοημοσύνη

Η Silicon Valley «παίζει» με τον δείκτη p(doom), που αποδίδει την πιθανότητα καταστροφής της ανθρωπότητας από τις νέες τεχνολογικές εφαρμογές.

Σενάρια καταστροφής με την τεχνητή νοημοσύνη
  • Kevin Roose*

Ο Dario Amodei, διευθύνων σύμβουλος της εταιρείας τεχνητής νοημοσύνης Anthropic, μου έδωσε ένα ποσοστό μεταξύ 10 και 25%. Η Lina Khan, πρόεδρος της Ομοσπονδιακής Επιτροπής Εμπορίου, ένα 15% και ο Emmett Shear, ο οποίος αντικατέστησε τον Sam Altman ως προσωρινός διευθύνων σύμβουλος στην OpenAI για περίπου πέντε λεπτά τον περασμένο μήνα, μεταξύ 5 και 50%.

Μιλώ για το p(doom), το νέο, μακάβριο στατιστικό μέτρο που σαρώνει τη Silicon Valley.

Το p(doom), που σε μαθηματικούς όρους σημαίνει «πιθανότητα καταστροφής», είναι ο τρόπος με τον οποίο ορισμένοι ερευνητές μετρούν τις πιθανότητες να αφανιστούμε ή να απειληθεί η ανθρώπινη επιβίωση από την τεχνητή νοημοσύνη (Artificial Intelligence - ΑΙ). Όσο πιο υψηλό είναι το p(doom), τόσο πιο πιθανό να έρθει η καταστροφή, ενώ ένα χαμηλό p(doom) σημαίνει ότι ίσως και να τα καταφέρουμε.

Παρότι ο όρος p(doom) εμφανίστηκε πρώτη φορά σαν εσωτερικό αστείο σε διάφορα τεχνολογικά fora μετά την έκρηξη που προκάλεσε το ChatGPT και τους εκτεταμένους φόβους για το πόσο γρήγορα αναπτύσσεται η AI, πλέον συζητείται ευρέως. Έχει γίνει κάτι σαν μόδα.

Φέτος, έχω πάει σε δύο εκδηλώσεις τεχνολογίας. Και στις δύο, άγνωστοι μου ζήτησαν το p(doom) μου σαν να μου ζητούσαν οδηγίες για την τουαλέτα. «Είναι θέμα συζήτησης σε κάθε συνάντησή μας», μου είπε ο Aaron Levie, ο διευθύνων σύμβουλος της πλατφόρμας δεδομένων cloud Box.

Το p(doom) έπαιξε σημαντικό ρόλο και στο δράμα της OpenAI, όταν απέλυσε ξαφνικά τον γκουρού της, Sam Altman, και αρχηγός της εταιρείας ορίστηκε προσωρινά ο κ. Shear. Τότε, οι υπάλληλοι κυκλοφόρησαν ένα απόσπασμα από πρόσφατο podcast του Shear, στο οποίο είχε δηλώσει ότι το p(doom) του θα μπορούσε να φτάσει το 50%. Μερικοί υπάλληλοι ανησύχησαν ότι ήταν «καταστροφολόγος» και ότι θα επιδίωκε την επιβράδυνση των εργασιών τους ως δήθεν επικίνδυνες, σύμφωνα με κάποιον που ήταν παρών στις συζητήσεις (τελικά, ο Sam Altman, ο έκπτωτος διευθύνων σύμβουλος του OpenAI, επέστρεψε, οπότε όλα αυτά σταμάτησαν να έχουν σημασία).

Οι λάτρεις της επιστημονικής φαντασίας μιλούν εδώ και χρόνια για το πώς τα ρομπότ θα πάρουν τον έλεγχο από τον άνθρωπο. Μετά την κυκλοφορία του ChatGPT, όμως, η συγκεκριμένη απειλή άρχισε να μοιάζει πιο πραγματική. Άλλωστε, αν η AI αρχίσει να κερδίζει βραβεία στις τέχνες ή να περνάει τις εξετάσεις του δικηγορικού συλλόγου, πόσο μπορεί να απέχει η καταστροφή;

Τον κώδωνα του κινδύνου κρούουν και οι μυημένοι της ΑΙ. Ο Geoffrey Hinton, ο εξέχων ερευνητής της τεχνητής νοημοσύνης, που το 2023 εγκατέλειψε την Google και άρχισε να προειδοποιεί για τους κινδύνους της ΑΙ, ανέφερε πρόσφατα πως, αν δεν μπει αυστηρό ρυθμιστικό πλαίσιο, υπάρχει 10% πιθανότητα να αφανιστούμε στα επόμενα 30 χρόνια.

Ο Yoshua Bengio, ο οποίος μαζί με τον Hinton θεωρείται ένας από τους «νονούς του deep learning», είπε σε συνέντευξή του ότι η πιθανότητα καταστροφής μας από την ΑΙ είναι 20%.

Φυσικά, κανείς δεν ξέρει αν οι πιθανότητες να μας αφανίσει η AI είναι 10, 20 ή 85,2% και γεννιούνται ερωτήματα, όπως: Θα εξακολουθήσει να λογίζεται ως «καταστροφή» αν πεθάνει το 50% των ανθρώπων; Τι θα γίνει αν δεν πεθάνει κανένας, αλλά καταλήξουμε όλοι άνεργοι και εξαθλιωμένοι; Και, τέλος πάντων, με ποιον τρόπο θα κατακτήσει τον κόσμο η AI;

Το ζητούμενο του p(doom) δεν είναι η ακρίβεια, αλλά να αξιολογήσουμε χονδρικά το πού βρίσκεται κάποιος στο φάσμα της δυστοπίας, αλλά και το αν έχει σκεφτεί σοβαρά την AI και τις πιθανές επιπτώσεις που θα έχει στην ανθρωπότητα.

Ο όρος p(doom) εμφανίστηκε πρώτη φορά πριν από 10 και πλέον χρόνια στο LessWrong, ένα φόρουμ αφιερωμένο στο ρασιοναλιστικό φιλοσοφικό κίνημα. Ο ιδρυτής του LessWrong, ένας αυτοδίδακτος ερευνητής της τεχνητής νοημοσύνης με το όνομα Eliezer Yudkowsky, ήταν από τους πρώτους που διατύπωσε διάφορα σενάρια καταστροφής για την ΑΙ. Εκείνη την εποχή, βέβαια, η AI μετά βίας μπορούσε να ρυθμίσει ένα χρονόμετρο κουζίνας, οπότε ο κίνδυνος φαινόταν αρκετά μακρινός.

Ο Yudkowsky, ο οποίος έκτοτε έγινε ένας από τους πιο γνωστούς καταστροφολόγους στον κόσμο, μου εξομολογήθηκε ότι δεν ήταν αυτός που δημιούργησε τον όρο p(doom), αν και βοήθησε στη διάδοσή του. Ο όρος υιοθετήθηκε αργότερα από μέλη του κινήματος του Effective Altruism, που χρησιμοποιούν λογικούς συλλογισμούς για να καταλήξουν σε ιδέες για την ηθική καλοσύνη.

Η πιο πιθανή εξήγηση είναι πως ο όρος επινοήθηκε από τον Tim Tyler, έναν προγραμματιστή με έδρα τη Βοστώνη, που συμμετείχε στο LessWrong από το 2009. Σε ένα από τα email που ανταλλάξαμε, μου είπε ότι χρησιμοποιούσε τον όρο για να αναφερθεί στην πιθανότητα καταστροφής, χωρίς να είναι πολύ συγκεκριμένος για τη χρονική κλίμακα ή τον ορισμό του «doom».

Για κάποιους, το να μιλάς για το p(doom) σου είναι ανούσια «ψιλοκουβέντα». Ωστόσο, είναι σημαντικό για το debate που έχει ξεσπάσει στη Silicon Valley, ανάμεσα σε αυτούς που πιστεύουν ότι η AI αναπτύσσεται πολύ γρήγορα και σε αυτούς που πιστεύουν ότι πρέπει να αναπτυχθεί ακόμη πιο γρήγορα.

Ο κ. Levie, ο διευθύνων σύμβουλος της Box, ανήκει στο πιο αισιόδοξο στρατόπεδο. Λέει ότι το p(doom) του είναι πολύ χαμηλό (αν όχι 0, πάντως στο πιο χαμηλό επίπεδο που θα μπορούσε να υπάρξει) και στοιχηματίζει ότι μπορούμε να μετριάσουμε τους μεγάλους κινδύνους της ΑI και να αποφύγουμε τα χειρότερα σενάρια. Η ανησυχία του δεν είναι ότι το ΑΙ θα μας σκοτώσει όλους, αλλά ότι οι ρυθμιστικές αρχές και οι νομοθέτες θα αξιοποιήσουν τις τρομακτικές προβλέψεις για καταστροφή για να βάλουν φρένο σε έναν πολλά υποσχόμενο νέο τομέα.

«Η υπέρβαση βρίσκεται στο αν θα ληφθούν κρίσιμες πολιτικές αποφάσεις πολύ νωρίς στην ανάπτυξη του Α.Ι.», ανέφερε.

Ένα άλλο πρόβλημα με το p(doom) είναι ότι δεν είναι ξεκάθαρο τι σημαίνει «καλές» ή «κακές» πιθανότητες, αφού τα κριτήρια είναι καθαρά υποκειμενικά. Για παράδειγμα, αν κάποιος προβλέψει ότι υπάρχει 15% πιθανότητα η ΑΙ να αφανίσει την ανθρωπότητα, είναι αισιόδοξος ή απαισιόδοξος; Με την ίδια λογική, θα επιβιβαζόσασταν σε ένα αεροπλάνο που έχει «μόνο» 15% πιθανότητα να συντριβεί;

Η Ajeya Cotra, ανώτερη ερευνήτρια στο Open Philanthropy που μελετά τους κινδύνους της AI, έχει αφιερώσει πολύ χρόνο σκεπτόμενη το p(doom). Πιστεύει ότι είναι δυνητικά χρήσιμο ως συντομογραφία -για την ιστορία το p(doom) της είναι μεταξύ 20 και 30%- αλλά βλέπει και τα τρωτά του σημεία. Για αρχή, το p(doom) δεν λαμβάνει υπόψη ότι η πιθανότητα καταστροφής που σχετίζεται με την AI, εξαρτάται σε μεγάλο βαθμό από το πώς θα επιλέξουμε να τη χρησιμοποιήσουμε.

«Ξέρω ανθρώπους που δίνουν p(doom) πάνω από 90%, αλλά είναι τόσο υψηλό επειδή πιστεύουν ότι οι εταιρείες και οι κυβερνήσεις δεν θα ασχοληθούν με θέματα ασφαλείας και πολιτικά μέτρα προστασίας», μου είπε. «Γνωρίζω άλλους που δίνουν p(doom) μικρότερο από 5%, μόνο και μόνο επειδή πιστεύουν πως οι επιστήμονες και οι πολιτικοί θα εργαστούν σκληρά για να αποτρέψουν τις καταστροφικές επιπτώσεις της ΑΙ».

Με άλλα λόγια, το p(doom) είναι σαν το τεστ Rorschach (που το χρησιμοποιούν οι ψυχολόγοι για να εξετάσουν την προσωπικότητα και τη συναισθηματική κατάσταση ενός ατόμου, χρησιμοποιώντας κηλίδες από μελάνι). Παρουσιάζεται σαν μια στατιστική που φαινομενικά αφορά την τεχνητή νοημοσύνη AI, αλλά τελικά αποκαλύπτει το πώς νιώθουμε για την ικανότητα των ανθρώπων που χρησιμοποιούν τα ισχυρά εργαλεία της νέας τεχνολογίας να μειώσουν τους κινδύνους της.

Άραγε, ποιο είναι το δικό σου p(doom);

*O Kevin Roose είναι αρθρογράφος τεχνολογίας των New York Times και οικοδεσπότης του podcast «Hard Fork».

c.2023 The New York Times Company

v