ChatGPT:«Αν κάτι πάει στραβά με την Τεχνητή Νοημοσύνη,”τη βάψαμε όλοι”»

Ο Σαμ Άλτμαν παρουσίασε στο αμερικανικό Κογκρέσο τις ελπίδες και τους φόβους για το δημιούργημά του και δέχτηκε ερωτήματα για τους κινδύνους που παρουσιάζει

sam_altman_xr

Αρχίζοντας από το τέλος και το ανεπίσημο πλην αβίαστο και ομόφωνο συμπέρασμα, η κατάσταση με την Τεχνητή Νοημοσύνη κρίνεται σαν πολλαπλά επικίνδυνη και χρήζει συντονισμένου και οργανωμένου ελέγχου. «Ένας από τους μεγαλύτερους φόβους μου» είπε χαρακτηριστικά ο εφευρέτης του ChatGPT, Σαμ Άλτμαν, απευθυνόμενος σε ειδική υποεπιτροπή του αμερικανικού Κογκρέσου «είναι μήπως η συγκεκριμένη τεχνολογία προκαλέσει σοβαρή ζημιά στην κοινωνία». Και ο διευθύνων σύμβουλος της OpenAI,  της νεοφυούς εταιρείας από το Σαν Φρανσίσκο στην οποίαν ανήκει το ChatGPT, έκρουσε όσο πιο δυνατά μπορούσε έναν μεγάλο κώδωνα κινδύνου: «Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε ‘τη βάψαμε’ όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο».

Η ακρόαση του 38χρονου Σαμ Άλτμαν την Τρίτη ενώπιον επιτροπής του Κογκρέσου των ΗΠΑ, η οποία συστήθηκε ειδικά για να εξετάσει το φαινόμενο της Τεχνητής Νοημοσύνης και των ενδεχόμενων κινδύνων που αυτή εγκυμονεί σε διάφορους τομείς της κοινωνικής ζωής, δεν ήταν συνηθισμένη. Κι αυτό διότι αυτή τη φορά οι εκπρόσωποι της νομοθετικής εξουσίας δεν έμοιαζαν προκατειλημμένοι και a priori ενάντιοι στον προσκεκλημένο.

Αντίθετα προς ό,τι είχε συμβεί σε προηγούμενες, πολυπροβεβλημένες ακροάσεις ισχυρών ανδρών του ψηφιακού κόσμου, όπως πχ ο Μαρκ Ζούκερμπεργκ του Facebook, στην περίπτωση του Άλτμαν το κυρίαρχο στοιχείο δεν ήταν η καχυποψία και η εχθρότητα, αλλά η διάθεση κατανόησης εκ μέρους της επιτροπής απέναντι σε έναν κοινό, καθ’ όλα πραγματικό κίνδυνο.

Από την πλευρά του, ο Σαμ Άλτμαν εμφανίστηκε ειλικρινής και νηφάλιος. Εκτός από τους φόβους του για τις πιθανώς επιβλαβείς πτυχές της Τεχνητής Νοημοσύνης, τόνισε ότι η εταιρεία του, η OpenAI «ίσως γίνει αιτία να καταργηθούν κάποιες θέσεις εργασίας, αλλά θα δημιουργήσει πολλές άλλες νέες. Και πέραν αυτού, η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, να προσφέρει λύσεις στις μεγαλύτερες προκλήσεις της ανθρωπότητας, όπως πχ την κλιματική αλλαγή, τη θεραπεία του καρκίνου κ.α.»

Ο Άλτμαν επισήμανε επίσης ότι η Τεχνητή Νοημοσύνη δεν είναι ένα αυτόνομο ον, αλλά ένα εργαλείο. Παρολ’ αυτά, ο γερουσιαστής Ρίτσαρντ Μπλούμενταλ, πρόεδρος της υποεπιτροπής του Κογκρέσου η οποία διεξήγαγε την ακρόαση, ζήτησε την άποψη του Σαμ Άλτμαν για κάτι, ιδιαίτερα ανησυχητικό που συνέβη στον ίδιον: Χρησιμοποιώντας την Τεχνητή Νοημοσύνη, κάποιος δημιούργησε μια απομίμηση δήλωσης, η οποία αποδόθηκε στον Μπλούμενταλ, ενώ ο ίδιος δεν την είχε κάνει ποτέ.

Εκτός από τον Άλτμαν, η υποεπιτροπή άκουσε επίσης την κατάθεση της επικεφαλής του τομέα προστασίας ιδιωτικών δεδομένων της IBM, Κριστίνα Μοντγκόμερι, καθώς και του Γκάρι Μάρκους, καθηγητή και διάσημου στις ΗΠΑ για τη δριμεία κριτική που ασκεί στην Τεχνητή Νοημοσύνη. Ο Μάρκους ήταν ο πιο αυστηρός από όσους απηύθυναν ερωτήσεις στον Άλτμαν, εκφράζοντας ξεκάθαρα τις αμφιβολίες του ότι η OpenAΙ δεν θα εξαφανίσει μόνο, αλλά και θα δημιουργήσει θέσεις εργασίας. Ταυτόχρονα, ο καθηγητής Μάρκους επέκρινε τον Σαμ Άλτμαν για την έλλειψη διαφάνειας σε σχέση με την έρευνα και εξέλιξη των συστημάτων Τεχνητής Νοημοσύνης.

Και η Σάρα Μάγιερς Γουέστ, διευθύνουσα σύμβουλος του Ινστιτούτου AI Now, το οποίο διερευνά το κανονιστικό πλαίσιο της τεχνολογικής έρευνας, εισηγήθηκε την θεσμοθέτηση ελεγκτικών μηχανισμών κατά της υπέρβασης των ορίων στη χρήση των βιομετρικών δεδομένων. Η ίδια όμως τόνισε ότι «παρά τα όσα λέει, ο κ. Άλτμαν δεν έχει δείξει καμία πρόθεση να επιβραδύνει την ανάπτυξη του ChatGPT. Και εν τέλει αποτελεί ειρωνεία να βλέπει κανείς τους υπαίτιους των προβλημάτων με την Τεχνητή Νοημοσύνη να δηλώνουν ότι αγωνιούν για τις παρενέργειες, ενώ ταυτόχρονα εισάγουν με ταχείς ρυθμούς στην αγορά ψηφιακά εργαλεία με αυτή την τεχνολογία, για εμπορική χρήση».

Τέλος, η πρόταση που ο Σαμ Άλτμαν υπέβαλε στην κρίση του Κογκρέσου αφορούσε στη σύσταση μιας ειδικής υπηρεσίας, η οποία θα χορηγεί άδειες για τη δημιουργία μεγάλης κλίμακας μοντέλων Τεχνητής Νοημοσύνης. Η ίδια αυτή υπηρεσία, θα ελέγχει την τήρηση των κανόνων ασφαλείας και θα εποπτεύει τις δοκιμές τις οποίες τα ψηφιακά μοντέλα θα πρέπει να περνούν, προτού αποδοθούν στο κοινό προς χρήσιν.