Δείτε εδώ την ειδική έκδοση

Πέντε τρομακτικές προβλέψεις για την τεχνητή νοημοσύνη

Καθώς η ΑΙ ωριμάζει και οι επιχειρήσεις συνεχίζουν να αυξάνουν τις επενδύσεις τους σε αυτό, ορισμένοι ανησυχούν πως δεν δίνεται αρκετή προσοχή στις ευρύτερες κοινωνικές και ηθικές επιπτώσεις της τεχνολογίας.

Πέντε τρομακτικές προβλέψεις για την τεχνητή νοημοσύνη

Στο άκουσμα των λέξεων Τεχνητή Νοημοσύνη (ΑΙ), πολλοί φέρνουν στο νου εικόνες ανθρωποειδών δολοφόνων και υπολογιστών που τρελαίνονται. Σε αυτό έχουν συμβάλει ταινίες του Χόλυγουντ, που έχουν δημιουργήσει μια αίσθηση τρόμου για το ενδεχόμενο η Τεχνητή Νοημοσύνη να στραφεί εναντίον της ανθρωπότητας.

Σε μια βιομηχανία που θα μπορούσε να δημιουργήσει αξία άνω των 1 τρισ. δολαρίων φέτος και 4 τρισ. δολαρίων μέχρι το 2022, όμως, οι ηθικές αμφιβολίες μπορεί να έχουν σημαντικές επιπτώσεις.

Η Τεχνητή Νοημοσύνη είναι ένας όρος που ακούγεται όλο και πιο συχνά στον επιχειρηματικό κόσμο και στα μέσα ενημέρωσης, και ήδη έχει επηρεάσει διάφορους τομείς –μεταξύ των οποίων και αυτούς που βασίζονται σε μεγάλο βαθμό στη χειρωνακτική εργασία.

Καθώς η ΑΙ ωριμάζει και οι επιχειρήσεις συνεχίζουν να αυξάνουν τις επενδύσεις τους σε αυτό, ορισμένοι ανησυχούν πως δεν δίνεται αρκετή προσοχή στις ευρύτερες κοινωνικές και ηθικές επιπτώσεις της τεχνολογίας.

Το CNBC μίλησε με ορισμένους ειδήμονες και ζήτησε την γνώμη τους ως προς τα πέντε πιο τρομακτικά ενδεχόμενα μελλοντικά σενάρια για την Τεχνητή Νοημοσύνη.

Μαζική ανεργία

Ένας κοινός φόβος των αναλυτών και των εργαζομένων, είναι η πιθανότητα η Τεχνική Νοημοσύνη να οδηγήσει σε μαζική παγκόσμια ανεργία, καθώς οι εργασίες αυτοματοποιούνται όλο και περισσότερο και δεν απαιτείται πλέον η ανθρώπινη εργασία.

Σύμφωνα με τον καθηγητή του Πανεπιστημίου του Εδιμβούργου, Άλαν Μπάντι, η απώλεια θέσεων εργασίας είναι και ο πρωταρχικός λόγος της αύξησης του λαϊκισμού ανά τον κόσμο, φέρνοντας ως παράδειγμα την εκλογή του Ντόναλντ Τραμπ και την απόφαση για το Brexit.

Οι υπέρμαχοι της ΑΙ υποστηρίζουν πως η τεχνολογία θα οδηγήσει στη δημιουργία νέων ειδών εργασίας. Θα αυξηθεί η ανάγκη για μηχανικούς, λόγω της εξέλιξης της τεχνολογίας, ενώ οι άνθρωποι θα χρησιμοποιούν το ΑΙ για να εκτελέσουν νέες λειτουργίες στους καθημερινούς τους ρόλους.

Σύμφωνα με την ερευνητική εταιρεία Gartner, η ΑΙ θα δημιουργήσει 2,3 εκατομμύρια θέσεις εργασίας και θα εξαλείψει 1,8 εκατομμύρια –μια καθαρή αύξηση 500.000 θέσεων εργασίας – μέχρι το 2020. Αυτό όμως δεν διαγράφει το γεγονός πως το ΑΙ θα οδηγήσει σε μεγάλες περικοπές θέσεων εργασίας ανά τον κόσμο.

Μελέτη του Πανεπιστημίου της Οξφόρδης από το 2013 σημειώνει πως κάποιες από θέσεις που είναι πιο εύκολο να αντικατασταθούν από την Τεχνητή Νοημοσύνη, είναι οι θέσεις υπαλλήλων σε χρηματομεσιτικές εταιρείες, οι ταμίες τραπεζών, οι ασφαλιστές και οι φοροτεχνικοί – εργασίες δηλαδή που αν και απαιτούν λιγότερες δεξιότητες, ωστόσο εξακολουθούν να είναι κρίσιμης σημασίας για τον χρηματοοικονομικό κλάδο.

Αν και η ζημιά για την αγορά εργασίας από την Τεχνητή Νοημοσύνη είναι πιθανό να ελαχιστοποιηθεί μέσω της αύξησης των δεξιοτήτων και της εφεύρεσης νέων εργασιών –ή ακόμα και μέσω της εισαγωγής ενός παγκόσμιου βασικού εισοδήματος- ωστόσο είναι ξεκάθαρο πως το πρόβλημα της απώλειας θέσεων εργασίας δεν θα λυθεί σύντομα.   

Πόλεμος

Η έλευση των επωνομαζόμενων «ρομπότ-δολοφόνων» και άλλες χρήσης της ΑΙ σε στρατιωτικές εφαρμογές, δημιουργεί στους ειδήμονες ανησυχία πως η τεχνολογία θα μπορούσε να οδηγήσει σε πόλεμο.

Ο διευθύνων σύμβουλος της Tesla, Έλον Μασκ, γνωστός για τις απόψεις του για το ΑΙ, προειδοποίησε πέρυσι πως η τεχνολογία θα μπορούσε να οδηγήσει στον Τρίτο Παγκόσμιο Πόλεμο.

Αν και υπερβολικό, το σχόλιο του Μασκ έδειξε έναν πραγματικό φόβο των ειδημονων. Ορισμένοι αναλυτές υποστηρίζουν πως η ανάπτυξη φονικών αυτόνομων όπλων και η χρήση της ΑΙ στη διαδικασία λήψης στρατιωτικών αποφάσεων, δημιουργεί πολλαπλά ηθικά διλήμματα και δημιουργεί πιθανότητα για πολέμους που είτε θα ενισχύονται είτε θα προκαλούνται από την Τεχνητή Νοημοσύνη.

Μάλιστα, έχει δημιουργηθεί και ομάδα μη κυβερνητικών οργανώσεων που έχει ως στόχο την απαγόρευση τέτοιων μηχανών, ζητώντας από τις κυβερνήσεις να αποτρέψουν την ανάπτυξη drones και άλλων οχημάτων με Τεχνητή Νοημοσύνη.

Νωρίτερα φέτος, το αμερικανικό αμυντικό Think Tank Rand Corporation προειδοποίησε με μελέτη του πως η χρήση ΑΙ στις στρατιωτικές εφαρμογές θα μπορούσε να οδηγήσει σε πυρηνικό πόλεμο μέχρι το 2040. Το σκεπτικό αυτής της τολμηρής πρόβλεψης ήταν πως η πιθανότητα ένα στρατιωτικό σύστημα ΑΙ να κάνει λάθος στην ανάλυσή του για μια κατάσταση, θα μπορούσε να οδηγήσει έθνη να λάβουν βιαστικές και δυνητικά καταστροφικές αποφάσεις.

Οι ανησυχίες αυτές πηγάζουν από ένα περιβόητο περιστατικό το 1983, όταν ο πρώην Σοβιετικός στρατιωτικός Στάνισλαβ Πετρόφ, παρατήρησε πως οι ρωσικοί υπολογιστές είχαν λανθασμένα βγάλει προειδοποίηση πως οι ΗΠΑ είχαν εκτοξεύσει πυρηνικούς πυραύλους, και έτσι κατάφερε να αποτρέψει έναν πυρηνικό πόλεμο.

Γιατροί-ρομπότ

Αν και οι ειδήμονες γενικά συμφωνούν για τα οφέλη της ΑΙ στην ιατρική –όπως η διάγνωση ασθενειών από πολύ νωρίς- ωστόσο ορισμένοι γιατροί και ακαδημαϊκοί εκφράζουν επιφυλάξεις, θεωρώντας πως ίσως οδεύουμε υπερβολικά γρήγορα προς την κατεύθυνση data-driven ιατρικών πρακτικών.

Ένας φόβος των ακαδημαϊκών είναι πως ο κόσμος περιμένει υπερβολικά πολλά από την Τεχνητή Νοημοσύνη, υποθέτοντας πως μπορεί να  έχει το είδος της γενικής νοημοσύνης που κατέχουν οι άνθρωποι για να επιλύσουν ένα μεγάλο εύρος θεμάτων.

«Όλες οι επιτυχημένες εφαρμογές ΑΙ μέχρι σήμερα είναι εξαιρετικά επιτυχημένες, αλλά σε ένα πολύ στενό εύρος εφαρμογών», σχολίασε ο Άλαν Μπάντι. Όπως ανέφερε, οι προσδοκίες αυτές θα μπορούσαν δυνητικά να έχουν σοβάρες συνέπειες για μια βιομηχανία όπως αυτή της υγείας. «Μια εφαρμογή ιατρικής διάγνωσης, που είναι εξαιρετική στα καρδιακά προβλήματα, μπορεί να διαγνώσει κάποια σπάνια μορφή καρδιακού προβλήματος σε έναν ασθενή που έχει καρκίνο, κάτι που θα μπορούσε δυνητικά να έχει θανατηφόρα αποτελέσματα», εξήγησε.

Πρόσφατα, έκθεση της Stat επικαλέστηκε εσωτερικά έγγραφα της IBM που έδειχναν πως ο υπερυπολογιστής Watson είχε κάνει πολλές «μη ασφαλείς και λανθασμένες» συστάσεις για θεραπεία καρκίνου. Σύμφωνα με το άρθρο, το λογισμικό είχε «εκπαιδευτεί» μόνο για να αντιμετωπίζει έναν μικρό αριθμό περιπτώσεων και υποθετικών σεναρίων, αντί για τα πραγματικά δεδομένα ασθενών.

Μια άλλη ανησυχία είναι πως ο όγκος των δεδομένων που μπαίνει και μοιράζεται στους υπολογιστές θα μπορούσαν να έχουν ηθικές επιπτώσεις στα προσωπικά δεδομένα των ασθενών.

Η εποχή των big data, που πλέον είναι μια βιομηχανία πολλών δισεκατομμυρίων δολαρίων που καλύπτει τα πάντα από το trading μέχρι τον τουρισμό, σημαίνει πως ο όγκος των προσωπικών πληροφοριών που μπορούν να συλλέξουν οι μηχανές, έχει εκτιναχθεί σε ανυπολόγιστα μεγέθη.

Το φαινόμενο «πλασάρεται» ως μια επανάσταση στη χαρτογράφηση διαφόρων ασθενειών, προβλέποντας την πιθανότητα κάποιος να αρρωστήσει σοβαρά και εξετάζοντας προκαταβολικά την απαιτούμενη θεραπεία. Όμως, το πρόβλημα είναι το πόσα δεδομένα αποθηκεύονται και σε ποιόν αποστέλλονται.

Παράδειγμα το DeepMind. Η εταιρεία ΑΙ της Google υπέγραψε συμφωνία με την Εθνική Υπηρεσία Υγείας του Ηνωμένου Βασιλείου το 2015, δίνοντάς της πρόσβαση στα δεδομένα υγείας 1,6 εκατομμυρίων Βρετανών ασθενών. Το πρόγραμμα σήμαινε πως οι ασθενείς έδιναν τα δεδομένα τους στην εταιρεία προκειμένου να βελτιώσουν την ικανότητα του προγράμματος να εντοπίσει ασθένειες. Αυτό οδήγησε στη δημιουργία μιας εφαρμογής που ονομάζεται Streams, η οποία έχει στόχο να παρακολουθεί ασθενείς με προβλήματα στα νεφρά και να ειδοποιεί τους κλινικούς ιατρούς όταν επιδεινώνεται η υγεία του ασθενή.

Πέρυσι, όμως, η υπηρεσία προστασίας προσωπικών δεδομένων της Βρετανίας έκρινε πως η σύμβαση μεταξύ του NHS και του DeepMind «δεν συμμορφώνεται με τον νόμο περί προστασίας δεδομένων». Η υπηρεσία έκρινε πως το Royal Free Hospital του Λονδίνου, που συνεργάζονταν στο πλαίσιο της συμφωνίας με το DeepMind, δεν έδειχνε διαφάνεια ως προς τον τρόπο με τον οποίον θα χρησιμοποιούσε τα δεδομένα των ασθενών.

Μαζική παρακολούθηση

Οι ειδήμονες φοβούνται επίσης πως η Τεχνητή Νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για μαζικές παρακολουθήσεις. Στην Κίνα, μάλιστα, ο φόβος αυτός φαίνεται πως γίνεται πραγματικότητα.

Σε διάφορους κινεζικούς δήμους, ο συνδυασμός τεχνολογίας αναγνώρισης προσώπου και ΑΙ χρησιμοποιείται προς όφελος των αργών για να πατάξουν την εγκληματικότητα.

Η Κίνα είναι γνωστή για τον κοινωνικό αυταρχισμό της και οι επικριτές λένε πως οι ενέργειες της χώρας προς μια ολική παρακολούθηση, αποτελεί έναν Οργουελικό εφιάλτη.

Σύμφωνα με δημοσίευμα των New York Times, στην Κίνα εκτιμάται πως αυτή τη στιγμή υπάρχουν 200 εκατομμύρια κάμερες παρακολούθησης. Είναι επίσης η μόνη χώρα στον κόσμο που λανσάρει ένα «σύστημα κοινωνικών μονάδων» που παρακολουθεί τις δραστηριότητες των πολιτών για να τους κατατάξει με βαθμολογίες που μπορεί να καθορίσουν το αν θα τους επιτραπεί ή όχι η πρόσβαση σε οτιδήποτε, από αεροπορικές πτήσεις μέχρι και ορισμένες online υπηρεσίες ραντεβού.

Η Κίνα επιδιώκει να γίνει παγκόσμιος ηγέτης στην Τεχνητή Νοημοσύνη μέχρι το 2030 και θέλει να ενισχύσει την αξία του τομέα ΑΙ της στα 1 τρισ. γουάν (146,6 δισ. δολάρια). Ήδη η χώρα ρίχνει δισεκατομμύρια στον τομέα, προκειμένου να υλοποιήσει τις φιλοδοξίες της.

Μια από τις εταιρείες που ηγούνται της προσπάθειας συνένωσης της ΑΙ με την τεχνολογία αναγνώρισης προσώπων είναι η SenseTime. Η εταιρεία, που στηρίζεται από την Alibaba, παρέχει στις αρχές στην Γκουανγκζού και την περιφέρεια Γιουνάν, υπηρεσίες αναγνώρισης προσώπων με Τεχνητή Νοημοσύνη.

Η εταιρεία γράφει στην ιστοσελίδα της πως η υπηρεσία δημόσιας ασφάλειας της Γκουανκγζού, έχει αναγνωρίσει περισσότερους από 2.000 υπόπτους εγκληματίες από το 2017 με τη βοήθεια της τεχνολογίας.

Διακρίσεις

Κάποιοι αναγνώστες ίσως θυμούνται το Tay, το AI chatbot που δημιούργησε η Microsoft το οποίο τάραξε τα νερά πριν από δυο χρόνια.

Το bot είχε λογαριασμό στο Twitter και σε λιγότερο από 24 ώρες οι χρήστες το εκπαίδευσαν να ποστάρει προσβλητικά tweets που στήριζαν τον Αδόλφο Χίτλερ και την ανωτερότητα των λευκών. Το πρόβλημα εδώ ήταν το γεγονός πως ένα chatbot εκπαιδεύτηκε να μιμείται τους χρήστες που αλληλεπιδρούσαν μαζί του online. Δεδομένης της συχνά σκοτεινής φύσης ορισμένων σημείων του διαδικτύου, μπορεί να λεχθεί πως τα προσβλητικά tweets δεν αποτέλεσαν έκπληξη.

Η γκάφα ανάγκασε την Microsoft να καταργήσει τον λογαριασμό. Αν και το περιστατικό ήταν κάπως αστείο, ωστόσο προκάλεσε μια σοβαρή συζήτηση ως προς το ενδεχόμενο η Τεχνητή Νοημοσύνη να γίνει προκατειλημμένη.

Ο Toby Walsh, καθηγητής ΑΙ στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας, σημειώνει πως η διάκριση είναι μια από τις πολλές «απρόσμενες συνέπειες» που θα πρέπει να αναμένονται από την τεχνολογία.

«Το βλέπουμε αυτό στην ακούσια διάκριση στους αλγόριθμους, ιδιαίτερα στην μηχανική μάθηση, πάνω στην οποία μπορεί να «καούν» οι φυλετικές, σεξουαλικές και άλλες διακρίσεις που προσπαθούμε να εξαλείψουμε από την κοινωνία μας τα τελευταία 50 και χρόνια», επισημαίνει.

Το ζήτημα, σύμφωνα με τους ειδήμονες, σχετίζεται με το πόσο εφικτό είναι η ΑΙ να γίνει αντικειμενικά και λογικά σκεπτόμενο, χωρίς διακρίσεις υπέρ μιας συγκεκριμένης φυλής, φύλου ή σεξουαλικότητας. Είναι κάτι το οποίο απασχολεί σοβαρά τους ερευνητές και developers, οι οποίοι εξετάζουν διάφορα ζητήματα, όπως για παράδειγμα το ότι η τεχνολογία αναγνώρισης προσώπων φαίνεται να μπορεί να διακρίνει καλύτερα τα πρόσωπα λευκών, ή το ότι τα συστήματα ΑΙ επεξεργασίας γλώσσας μπορεί να δείξουν διάκριση, σχετίζοντας ορισμένα φύλα και φυλές με στερεοτυπικούς ρόλους.

ΣΧΟΛΙΑ ΧΡΗΣΤΩΝ

blog comments powered by Disqus
v