Δείτε εδώ την ειδική έκδοση

Επικίνδυνα εργαλεία: Και η OpenAI «κλειδώνει» ισχυρό μοντέλο AI

Οι δημιουργοί μοντέλων ΑΙ ανησυχούν τόσο πολύ για τις καταστροφικές συνέπειες από τα ίδια τους τα εργαλεία, που διστάζουν να τα δώσουν στο ευρύ κοινό. Μετά την Anthropic, και η OpenAI διαθέτει το μοντέλο της σε λίγες εταιρείες.

Επικίνδυνα εργαλεία: Και η OpenAI «κλειδώνει» ισχυρό μοντέλο AI

Η OpenAI ολοκληρώνει την ανάπτυξη ενός μοντέλου με προηγμένες δυνατότητες στον τομέα της κυβερνοασφάλειας, το οποίο σχεδιάζει να διαθέσει μόνο σε μια μικρή ομάδα εταιρειών, όπως συνέβη και με την περιορισμένη διάθεση του Mythos από την Anthropic, σύμφωνα με πληροφορίες που έδωσε στο Axios πηγή που γνωρίζει το θέμα.

Γιατί έχει σημασία: Οι δυνατότητες της Τεχνητής Νοημοσύνης έχουν φτάσει σε ένα κρίσιμο σημείο, τουλάχιστον όσον αφορά την αυτονομία και τις δυνατότητες παραβίασης συστημάτων. Οι δημιουργοί μοντέλων ανησυχούν πλέον τόσο πολύ για τις καταστροφικές συνέπειες που θα μπορούσαν να προκαλέσουν τα ίδια τους τα εργαλεία, που διστάζουν να τα διαθέσουν στο ευρύ κοινό.

Τα νέα: Η Anthropic ανακοίνωσε την Τρίτη σχέδια για τον περιορισμό της πρόσβασης στο νέο μοντέλο Mythos Preview σε μια επιλεγμένη ομάδα εταιρειών τεχνολογίας και κυβερνοασφάλειας, λόγω των φόβων για τις προηγμένες δυνατότητες παραβίασης συστημάτων που αυτό διαθέτει.

Τώρα, η OpenAI σχεδιάζει μια παρόμοια προσέγγιση, σύμφωνα με την πηγή.

Εστίαση: Η OpenAI παρουσίασε το πιλοτικό της πρόγραμμα «Trusted Access for Cyber» τον Φεβρουάριο, μετά την κυκλοφορία του GPT-5.3-Codex, του μοντέλου συλλογιστικής της εταιρείας με τις μεγαλύτερες δυνατότητες στον τομέα της κυβερνοασφάλειας.

Η γενική εικόνα: Πρώην κυβερνητικοί αξιωματούχοι και υψηλόβαθμοι αξιωματούχοι στον τομέα της ασφάλειας έχουν κρούσει τον κώδωνα του κινδύνου τον τελευταίο χρόνο σχετικά με μοντέλα τεχνητής νοημοσύνης που - αν πέσουν σε λάθος χέρια - θα μπορούσαν κάποια μέρα να προκαλέσουν αυτόνομα διαταραχές στις υπηρεσίες ύδρευσης, στο ηλεκτρικό δίκτυο ή στα χρηματοπιστωτικά συστήματα. 

Αυτές οι δυνατότητες φαίνεται πλέον να έχουν γίνει πραγματικότητα.

Επίπεδο απειλής: Ακόμη και αν οι εταιρείες Τεχνητής Νοημοσύνης περιορίσουν τη διάθεση των μοντέλων τους, κορυφαίοι εμπειρογνώμονες στον τομέα της ασφάλειας στέλνουν όλοι το ίδιο μήνυμα: Δεν υπάρχει γυρισμός.

Δεν είναι σαφές αν η OpenAI θα αποφασίσει να διαθέσει το επερχόμενο μοντέλο της σε ευρύτερο κοινό κάποια στιγμή.

Η Anthropic έχει δηλώσει ότι δεν θα διαθέσει ποτέ το Mythos Preview στο κοινό, αλλά θα εξετάσει το ενδεχόμενο να διαθέσει άλλα μοντέλα Mythos, υπό την προϋπόθεση ότι θα υπάρχουν αυστηρά μέτρα ασφαλείας.

ΣΧΟΛΙΑ ΧΡΗΣΤΩΝ

blog comments powered by Disqus
v
Απόρρητο