OpenAI: Ο απροσδόκητος διορισμός στο διοικητικό συμβούλιό της

Την περασμένη εβδομάδα, η δημιουργός του ChatGPT, OpenAI ανακοίνωσε ότι διόρισε στο διοικητικό της συμβούλιο τον απόστρατο Στρατηγό των ΗΠΑ και πρώην Διευθυντή της Υπηρεσίας Εθνικής Ασφάλειας (NSA) Πολ Νακασόνε, ο οποίος ταυτόχρονα επίσης διηύθυνε την Διοίκηση Κυβερνοχώρου (Cyber ​​Command) του αμερικανικών ενόπλων δυνάμεων, πριν αποστρατευτεί τον Φεβρουάριο 2024.

 

«Η απαράμιλλη εμπειρία του στρατηγού Νακασόνε σε τομείς όπως η κυβερνοασφάλεια», δήλωσε ο πρόεδρος του διοικητικού συμβουλίου της OpenAI, Μπρετ Τέιλορ, «θα βοηθήσει να καθοδηγήσει την OpenAI στην επίτευξη της αποστολής της να διασφαλίσει ότι η δημιουργική τεχνητή νοημοσύνη ωφελεί όλη την ανθρωπότητα».

Αλλά δεν είναι όλοι ενθουσιασμένοι με τον νέο ρόλο του Νακασόνε στην εταιρεία AI, η οποία θα δει επίσης τον πρώην στρατηγό να κάθεται στην Επιτροπή Ασφάλειας του OpenAI. Η NSA έχει συνδεθεί εδώ και πολύ καιρό με την επιτήρηση πολιτών των ΗΠΑ και οι τεχνολογίες που ενσωματώνονται στην τεχνητή νοημοσύνη ήδη ανανεώνουν και κλιμακώνουν τις υπάρχουσες ανησυχίες σχετικά με την παρακολούθηση.

Δεν είναι τυχαίο ότι επί Νακασόνε η NSA αγόραζε δεδομένα περιήγησης Αμερικανών στο Διαδίκτυο από μεσίτες εμπορικών δεδομένων χωρίς εντάλματα, όπως αποκάλυψαν αξιωματούχοι των υπηρεσιών πληροφοριών σε έγγραφα που δημοσιοποίησε ο Δημοκρατικός γερουσιαστής του Όρεγκον Ρον Γουάιντεν λίγες μέρες πριν αποστρατευθεί ο στρατηγός.

H OpenAI δέχεται και πάλι συχνά κριτική για την έλλειψη διαφάνειας σχετικά με τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των πολλών μοντέλων τεχνητής νοημοσύνης της

Έχοντας αυτό κατά νου, μπορεί να μην προκαλεί έκπληξη το γεγονός ότι ο πρώην υπάλληλος της NSA και διάσημος πληροφοριοδότης Έντουαρντ Σνόουντεν είναι μεταξύ των ειλικρινών επικριτών του νέου διορισμού της OpenAI.

«Έπεσαν όλες οι μάσκες : μην εμπιστεύεσαι ποτέ το OpenAI ή τα προϊόντα της», έγραψε ο Σνόουντεν σε ανάρτησή του την Παρασκευή στο X, πρώην Twitter, προσθέτοντας ότι «υπάρχει μόνο ένας λόγος για τον διορισμό» διευθυντή της NSA « στο διοικητικό συμβούλιο σας».

«Πρόκειται για μια εσκεμμένη, υπολογισμένη προδοσία των δικαιωμάτων κάθε ανθρώπου στη γη», συνέχισε. «Έχετε προειδοποιηθεί».

Ανησυχίες για διαφάνεια

Ο Σνόουντεν δεν ήταν η μόνη προσωπικότητα στον τομέα της κυβερνοασφάλειας που εστίασε σε αυτά τα νέα της OpenAI.

«Πιστεύω ότι η μεγαλύτερη εφαρμογή της τεχνητής νοημοσύνης θα είναι η μαζική επιτήρηση πληθυσμού», έγραψε στο Twitter ο καθηγητής κρυπτογραφίας του Πανεπιστημίου Johns Hopkins, Μάθιου Γκριν, «οπότε η πρόσληψη του πρώην επικεφαλής της NSA στο OpenAI έχει κάποια σταθερή λογική πίσω από αυτό».

Η εγκατάσταση του Nakasone στο ΔΣ έρχεται μετά από μια σειρά αποχωρήσεων υψηλού προφίλ OpenAI που περιελάμβαναν εξέχοντες ερευνητές ασφάλειας, και κατόπιν της ολικής διάλυσης της ομάδας ασφαλείας “Superalignment” της OpenAI. Ο αντικαταστάτης της OpenAI για αυτήν την ομάδα, η Επιτροπή Ασφάλειας, τώρα διευθύνεται από τον Διευθύνοντα Σύμβουλο της εταιρείας Σαμ Άλτμαν, ο οποίος έχει δεχθεί πυρά τις τελευταίες εβδομάδες για επιχειρηματικές πρακτικές που περιλάμβαναν τη φίμωση πρώην υπαλλήλων.

Αξίζει επίσης να σημειωθεί ότι η OpenAI δέχεται και πάλι συχνά κριτική για την έλλειψη διαφάνειας σχετικά με τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των πολλών μοντέλων τεχνητής νοημοσύνης της.

Προτεραιότητα στην ταχύτητα έναντι της ασφάλειας

Αλλά την ίδια στιγμή, σύμφωνα με την Axios, πολλοί στο Κογκρέσο βλέπουν τη πρόσληψη του Nakasone OpenAI ως μια νίκη ασφαλείας. Και ο Nakasone, από την πλευρά του, είπε σε μια δήλωση ότι η αφοσίωση της OpenAI στην αποστολή του ευθυγραμμίζεται στενά με τις δικές tου αξίες και την εμπειρία του στο δημόσιο βίο.

«Ανυπομονώ να συνεισφέρω στις προσπάθειες της OpenAI», πρόσθεσε για «να διασφαλίσει ότι η δημιουργική τεχνητή νοημοσύνη είναι ασφαλής και ωφέλιμη για τους ανθρώπους σε όλο τον κόσμο».

Αρκετοί πρώην υψηλόβαθμοι υπάλληλοι της OpenAI, όμως, επέκριναν την εταιρεία ότι δίνει προτεραιότητα στην ταχύτητα έναντι της ασφάλειας, συμπεριλαμβανομένου του Τζαν Λέικε, ο οποίος βοήθησε να ηγηθεί του μακροπρόθεσμου έργου ασφάλειας της εταιρείας, του “Superalignment”.

Ο Λέικε, ο οποίος αποχώρησε από την εταιρεία τον περασμένο μήνα, επέκρινε την OpenAI ότι δεν υποστήριξε το έργο της ομάδας του superalignment σε ένα νήμα που δημοσίευσε ανακοινώνοντας την αποχώρησή του. Η ερευνήτρια εταιρικής πολιτικής Γκρέτσεν Κρούγκερ έφυγε επίσης τον περασμένο μήνα και είπε ότι συμμερίζεται ορισμένες από τις ανησυχίες του Λέικε και έχει επιπλέον ανησυχίες.

https://www.in.gr