Τεχνητή Νοημοσύνη: Μεγάλοι κίνδυνοι, παγκόσμιο ρυθμιστικό πλαίσιο ζητά η Google

Τα αναπόφευκτα «δεινά» της τεχνητής νοημοσύνης προαναγγέλλει ο CEO της Google, καλώντας ωστόσο τις ρυθμιστικές αρχές να μην... αποφεύγουν το μέλλον.

Δημοσιεύθηκε: 18 Απριλίου 2023 - 21:17

Load more

«Κάθε προϊόν κάθε εταιρείας» θα επηρεαστεί από τη γρήγορη ανάπτυξη της τεχνητής νοημοσύνης, αποφαίνεται ο διευθύνων σύμβουλος των Google και Alphabet Sundar Pichai, προειδοποιώντας ότι η κοινωνία πρέπει να προετοιμαστεί για αντίστοιχες νέες τεχνολογίες που ήδη κυκλοφορούν.

Σε συνέντευξη στο CBS, ο δημοσιογράφος Scott Pelley, σε ανησυχητικό τόνο, δήλωσε ότι έμεινε «άφωνος» δοκιμάζοντας πολλά έργα τεχνητής νοημοσύνης της Google, όπως το chatbot Bard, αναφερόμενος στις «ανθρωποειδείς» δυνατότητές του.

Και ο Pichai απάντησε ξεκάθαρα: «Πρέπει να προσαρμοστεί η κοινωνία σ' αυτό», προσθέτοντας ότι η τεχνητή νοημοσύνη θα διαταράξει θέσεις εργασίας στον τομέα «της γνώσης», όπως σε συγγραφείς, λογιστές, αρχιτέκτονες ή, κατά ειρωνικό τρόπο, ακόμη και μηχανικούς λογισμικού.

«Θα επηρεάσει κάθε προϊόν σε κάθε εταιρεία», είπε ο Pichai. «Για παράδειγμα, ένας γιατρός σε πέντε έως δέκα χρόνια θα έχει έναν συνεργάτη τεχνητής νοημοσύνης μαζί του. Αν έχει εκατό πράγματα να κάνει σε μία μέρα, θα του υποδείξει ποιες είναι οι πιο σοβαρές περιπτώσεις που πρέπει να εξετάσει πρώτα». Ή ένα ρομπότ θα μπορούσε να αναγνωρίζει τα αντικείμενα και να φέρνει αυτό που χρειάζεται κανείς.

«Tα πράγματα θα πάνε στραβά, αλλά δεν μπορείς να αποφύγεις το μέλλον»

Ο Pichai προειδοποίησε ότι η τεχνητή νοημοσύνη θα εντείνει το πρόβλημα της παραπληροφόρησης και των ψεύτικων ειδήσεων και εικόνων, δυνητικά «προκαλώντας βλάβη».

Τον περασμένο μήνα, γράφει το CNBC, ο Pichai είπε σε εσωτερική επικοινωνία με υπαλλήλους ότι η επιτυχία του προγράμματος Bard εξαρτάται από δημόσιες δοκιμές, προσθέτοντας ότι «τα πράγματα θα πάνε στραβά».

Η Google παρουσίασε το πειραματικό chatbot AI Bard τον περασμένο μήνα, ακολουθώντας την ανακοίνωση της Microsoft τον Ιανουάριο ότι η μηχανή αναζήτησης Bing θα περιλαμβάνει την τεχνολογία GPT του OpenAI, η οποία κέρδισε τη διεθνή προσοχή μετά την κυκλοφορία του ChatGPT το 2022.

Ωστόσο, οι φόβοι για τις συνέπειες αυτής της ταχείας προόδου βαθαίνουν, αυξάνονται και πληθύνονται. Τον Μάρτιο, ο Elon Musk, ο Steve Wozniak και δεκάδες ακαδημαϊκοί ζήτησαν άμεση παύση στα εκπαιδευτικά «πειράματα» που συνδέονται με μεγάλα γλωσσικά μοντέλα, «πιο ισχυρά από το GPT-4», τη ναυαρχίδα του OpenAI. Περισσότερα από 25.000 άτομα έχουν υπογράψει την επιστολή από τότε.

«Ο ανταγωνισμός μεταξύ κολοσσών όπως η Google και νεοφυών επιχειρήσεων τις οποίες δεν έχετε καν ακούσει σπρώχνει την ανθρωπότητα προς το μέλλον, είτε είναι έτοιμη είτε όχι», σχολίασε ο Pelley.

«Ας τρέξει και η ηθική με ταχύτητες τεχνολογίας»

Η Google κυκλοφόρησε ένα έγγραφο που περιλαμβάνει «συστάσεις για τη ρύθμιση της τεχνητής νοημοσύνης». Ωστόσο, ο Pichai είπε ότι η κοινωνία πρέπει να προσαρμοστεί γρήγορα με τους κανονισμούς, με τους νόμους για την τιμωρία της κατάχρησης και με τις συμφωνίες μεταξύ χωρών, ώστε να γίνει ασφαλής για τον κόσμο η τεχνητή νοημοσύνη, θεσπίζοντας κανόνες «ευθυγραμμισμένους με τις ανθρώπινες αξίες και την ηθική».

«Δεν εναπόκειται σε μια εταιρεία να αποφασίσει», είπε ο Pichai. «Γι’ αυτό πιστεύω ότι η ανάπτυξη πρέπει να περιλαμβάνει όχι μόνο μηχανικούς, αλλά κοινωνικούς επιστήμονες, ηθικούς φιλοσόφους και ούτω καθεξής».

Όταν ρωτήθηκε εάν η κοινωνία είναι προετοιμασμένη για την τεχνολογία τεχνητής νοημοσύνης, ο Pichai απάντησε: «Από τη μια νομίζω όχι, επειδή ο ρυθμός με τον οποίο μπορούμε να σκεφτόμαστε και να προσαρμόζουμε τους κοινωνικούς θεσμούς φαίνεται αναντίστοιχος προς τον ρυθμό με τον οποίο εξελίσσεται η τεχνολογία».

Ωστόσο, δήλωσε αισιόδοξος γιατί, σε σύγκριση με άλλες τεχνολογίες στο παρελθόν, αυξήθηκε από νωρίς «ο αριθμός των ανθρώπων που άρχισαν να ανησυχούν για τις επιπτώσεις»...

Από μια φράση έξι λέξεων του Pelley, το Bard δημιούργησε ένα παραμύθι και επινόησε χαρακτήρες και πλοκή. «Έμεινα άφωνος», είπε. «Σοκαριστική, υπερανθρώπινη ταχύτητα».

Ακόμη, το Bard έχει και παραισθήσεις, καθώς, όταν ο Pelley το ρώτησε για τον πληθωρισμό, έλαβε αμέσως άμεση απάντηση που υποδείκνυε πέντε τίτλους βιβλίων, που όμως δεν υπάρχουν στην πραγματικότητα.

Ο Pichai παραδέχτηκε ότι, πράγματι, υπάρχει «ένα μαύρο κουτί chatbots που δεν καταλαβαίνουμε πλήρως».

«Δεν καταλαβαίνετε πώς λειτουργεί και το έχετε βάλει στην κοινωνία;» ρώτησε προβληματισμένος ο δημοσιογράφος.

«Γιατί; Καταλαβαίνουμε πώς λειτουργεί ο ανθρώπινος νους;», ανταπάντησε με ερώτηση ο Pichai, μπερδεύοντας ακόμη περισσότερο τη... φυσική νοημοσύνη μας.

Load more

Δείτε επίσης

Load more

Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας χρησιμοποιούμε τεχνολογίες, όπως cookies, και επεξεργαζόμαστε προσωπικά δεδομένα, όπως διευθύνσεις IP και αναγνωριστικά cookies, για να προσαρμόζουμε τις διαφημίσεις και το περιεχόμενο με βάση τα ενδιαφέροντά σας, για να μετρήσουμε την απόδοση των διαφημίσεων και του περιεχομένου και για να αποκτήσουμε εις βάθος γνώση του κοινού που είδε τις διαφημίσεις και το περιεχόμενο. Κάντε κλικ παρακάτω για να συμφωνήσετε με τη χρήση αυτής της τεχνολογίας και την επεξεργασία των προσωπικών σας δεδομένων για αυτούς τους σκοπούς. Μπορείτε να αλλάξετε γνώμη και να αλλάξετε τις επιλογές της συγκατάθεσής σας ανά πάσα στιγμή επιστρέφοντας σε αυτόν τον ιστότοπο.



Πολιτική Cookies
& Προστασία Προσωπικών Δεδομένων