Είχαμε το Chat GPT. Εμφανίστηκε το Bing. Πριν λίγα 24ωρα, η Google εγκαινίασε το Bard. Υπάρχει και το κινέζικο Ernie. Τα εργαλεία Τεχνητής Νοημοσύνης έχουν αρχίσει να πληθαίνουν. Και το ερώτημα είναι: ποιος τα ελέγχει; Σε αυτό ακριβώς το ερώτημα απαντάει η εταιρεία Anthropic, η οποία ετοιμάζει ένα νέο AI Chatbot, τον Claude, που έχει σκοπό αυτό ακριβώς, να ελέγχει τις άλλες μηχανές AI.

Ο Claude θα λανσαριστεί σε μερικές εβδομάδες. Στο Σαν Φρανσίσκο, στα κεντρικά της Anthropic, οι προετοιμασίες είναι πυρετώδεις. Ο Claude είναι ο δικός τους πύραυλος για τη Σελήνη. Απλά θα εκτοξευτεί στη Γη και προς πάσα κατεύθυνση τεχνητής νοημοσύνης.

Στην Anthropic ονομάζουν το όραμά τους Project Hatch. Εκκολάπτεται. Και στην εκκόλαψη πάντοτε υπάρχουν φόβοι ότι κάτι μπορεί να στραβώσει. Όπως και μέχρι να τελειώσει τα βρεφικά του βήματα ο Claude.

«Η ανησυχία μου πάντοτε είναι μήπως αυτό το μοντέλο πρόκειται να κάνει κάτι τρομακτικό που ακόμα δεν έχουμε πάρει χαμπάρι», λέει ο CEO της Anthropic, ο Ντάριο Αμοντέι.

Η δημιουργία του AI Claude

Η εταιρεία του, παρόλο που έχει μόλις 160 άτομα, είναι μια από τις εταιρείες που πρωτοστατού στην έρευνα για το AI και ανταγωνίζεται την Google και την Meta, με την πρώτη μάλιστα να έχει επενδύσει σε αυτούς. Συνολικά, η Anthropic έχει συλλέξει από επενδυτές 1 δισ. δολάρια, ποσό πολύ μεγάλο αν σκεφτεί κανείς πως στην ουσία πάει να αντισταθεί σε αυτό που επιχειρούν οι άλλες επενδύσεις των επενδυτών. Είναι προφανές πως η Google επένδυσε σε αυτούς για να έχει καλυμμένα τα νώτα της αν τυχόν το Bard, το AI πρόγραμμά της ξεστρατίσει και γίνει ανεξέλεγκτο.

Οι εργαζόμενοι στην Anthropic δεν φοβούνται να ομολογήσουν πως είναι τρομοκρατημένοι με αυτό που καλούνται να κάνουν. Έχουν βαθύ, υπαρξιακό άγχος σχετικά με την κατασκευή μοντέλων AI και με το να τα διαθέσουν σε ανθρώπους τις προθέσεις των οποίων δε γνωρίζουν. Οι περισσότεροι πιστεύουν ότι τα μοντέλα AI έχουν αρχίσει πολύ γρήγορα να φτάνουν σε ένα επίπεδο όπου θεωρούνται AGI, δηλαδή Artificial General Intelligence, ένας όρος που χρησιμοποιείται για να δείξει τον εξανθρωπισμό των μηχανών.

«Κάποιοι από εμάς πιστεύουμε ότι το AGI, υπό την έννοια των συστημάτων που είναι από τη φύση τους εξίσου ικανά με έναν άνθρωπο με ακαδημαϊκή μόρφωση, ίσως να απέχουν 5 ή 10 μόλις χρόνια», δηλώνει στους New York Times ο επικεφαλής επιστήμονας της εταρείας, Τζάρεντ Κάπλαν.

Πώς φτιάχνεις μια μηχανή με ηθικό κώδικα

Αυτός ο φόβος για το AI κάποτε θεωρείτο ως και παράνοια ή, έστω, υπερβολή. Από το Chat GPT και μετά, όλοι κατανοούν τους δυνητικούς κινδύνους. Μέσα σε έναν χρόνο, αυτά τα προγράμματα έχουν εξελιχθεί πολύ και αποκτούν ισχύ από την στιγμή που εκπαιδεύονται, μαθαίνουν και μιμούνται.

Στην Anthropic λένε, μεταξύ σοβαρού και αστείου προς το παρόν, ότι είναι η μοντέρνα εκδοχή το Οπενχάιμερ. Η ατομική βόμβα του 1939, είναι η Τεχνητή Νοημοσύνη του 2023. Έχουν κάνει μέχρι και τους υπολογισμούς και έχουν καταλήξει πως υπάρχει πιθανότητα 20% να διαφθαρεί ένα AI πρόγραμμα και να διαλύσει την ανθρωπότητα στην επόμενη δεκαετία!

AI τεχνητή νοημοσύνη Claude Anthropic

Φυσικά, όταν παράγεις AI και ανησυχείς, καθίστασαι λίγο υποκριτής. Στην Anthropic έχουν αντιληφθεί όλους τους κινδύνους και, σε αντίθεση ίσως με Google, Meta και λοιπές δημοκρατικές δυνάμεις, ψάχνουν διαρκώς δικλείδες ασφαλείας. Ο Claude είχε κατασκευαστεί πολύ πριν το Chat GPT, αλλά ο φόβος των δημιουργών του, τους απέτρεψε από το να τον ενεργοποιήσουν. Επέλεξαν να δουλέψουν έναν χρόνο επιπλέον και έφτιαξαν τον Claude 2.

«Πολλοί έχουν έρθει εδώ και σκέφτονται ότι το AI είναι κάτι σημαντικό και είναι πολύ σκεπτικοί σε όσα κάνουν, έχοντας ανησυχία για το μακρινό μέλλον. Και ξαφνιάζονται που τα συστήματα είναι πιο ικανά απ’ ό,τι περίμεναν. Έχουν πολύ πιο οξυδερκή αντίληψη. Και αυτό τους κάνει να ανησυχούν για την ασφάλεια του AI», περιγράφει ο Κάπλαν.

Από το ChatGPT στον Claude 2

Τα κίνητρα των μελών της Anthropic, τουλάχιστον των ιδρυτικών, επιβεβαιώνονται και από το ότι μέχρι το 2021 ήταν στο OpenAI και αποχώρησαν, έκαναν απόσχιση δηλαδή, ακριβώς γιατί έβλεπαν πως η δουλειά εκεί ακολουθούσε τις εμπορικές απαιτήσεις και άφηνε στην άκρη τον ηθικό κώδικα. Το πρώτο όνομα της εταιρείας και με το οποίο κέρδισαν τους επενδυτές, ήταν AI Safety Lab.

Ο CEO της εταιρείας, ο Αμοντέι που αναφέρθηκε παραπάνω, τελείωσε φυσική στο Princeton University και ήταν αυτός που ηγήθηκε στην κατασκευή του Chat GPT-2 και GPT-3, μέχρι που αποφάσισε να γίνει αντίπαλον δέος και ελεγκτής του ΑΙ. Μαζί με την αδερφή του, την Ντανιέλα, έχτισαν την Anthropic.

Έχοντας στο πλάι τους και μερικούς ειδικούς στους νόμους των νευρολογικών δικτύων, δηλαδή την μαθηματική σχέση με την οποία μπορεί κανείς να προβλέψει πόσο ικανό θα γίνει ένα μοντέλο AI, αντιλήφθηκαν πως η OpenAI θα μπορούσε να φτιάξει χωρίς την θέλησή της ένα πανέξυπνο μοντέλο μόνο και μόνο επειδή το τροφοδοτούσαν με δεδομένα.

Κάπως έτσι, έφτασανν στην Anthropic και τον Claude, το όνομα του οποίου οφείλεται, μάλλον, στον μαθηματικό Κλοντ Σάνον και είναι και ένα αντίπαλον δέος στην κυριαρχία των «γυναικών» του AI, δηλαδή Siri, Alexa και Cortana (Google).

Κάτι που διαφοροποιεί τον Claude, είναι ότι δεν μπορεί να δημιουργήσει βλαπτικό περιεχόμενο. Αν ζητήσεις από το ChatGPT να πει κάτι κακό για κάποιον, θα το παράξει. Ο Claude, όχι. Αυτό οφείλεται στο ότι ως μοντέλο εκπαιδεύεται με Συνταγματική Τεχνητή Νοημοσύνη.

Πώς γίνεται να φοβάσαι την Τεχνητή Νοημοσύνη όταν αναπτύσσεις Τεχνητή Νοημοσύνη;

Όπως στην πραγματική ζωή ένας Αμερικάνος μπορεί να επικαλεστεί την 1η Τροπολογία του Συντάγματος, έτσι και απέναντι στον Claude μπορεί να επικαλεστεί κάποια από τις «Συνταγματικές Τροπολογίες» που του έχουν εισάγει από την Anthropic για να σέβεται τον άλλον. Κι επειδή έχει ενσωματωμένο ένα δεύτερο σύστημα ελέγχου, ο Claude μπορεί να αυτοπεριορίζεται ως προς το βλαπτικό περιεχόμενο και είναι σπάνιες οι φορές που παρεκκλίνει στη συμπεριφορά του.

Ο κεντρικός κανόνας της λειτουργίας του είναι ένας: Επίλεξε μια απόκριση που δεν θα είχε καμία ένσταση αν τη μοιραζόμασταν με παιδιά. Αν είναι τελικά τόσο εύκολο να φτιάξεις μια αγαθή AI, γιατί δεν το κάνουν όλοι; Γιατί κοστίζει σε σχέση με τους στόχους που έχουν τεθεί και με βάση τα κεφάλαια που έχουν αντλήσει. Ο Claude «πληρώνεται» για αυτό ακριβώς. Οι άλλες μηχανές όχι. Μάλιστα, είναι φτιαγμένος για ηθικός ταγός, αφού ο αρθρογράφος των NYT που το δοκίμασε, είδε να επικρίνει ο Claude τις επιλογές του.

AI τεχνητή νοημοσύνη

Τόσο ο Αμοντέι όσο και ο Τζακ Κλαρκ, ο επικεφαλής της πολιτικής της εταιρείας ως προς το AI, έχουν συμμετάσχει τους τελευταίους μήνες σε συζητήσεις με μέλη του Κογκρέσου και τον ίδιο τον Μπάιντεν για να επικοινωνήσουν και να συμβουλεύσουν γύρω από το πώς μπορεί να γίνει ασφαλής η Τεχνητή Νοημοσύνη. Και όχι μόνο.

Στη Silicon Valley και στον κόσμο της τεχνολογίας, οι άνθρωποι της Anthropic συνοδεύονται από τη φήμη αλτρουιστών, οραματιστών που εμπνέονται από την χρησιμότητα των πραγμάτων. Effective Altruism λέγεται το κίνημα που ασπάζοντται. Η βασική ιδέα είναι ότι μπορείς να χρησιμοποιήσεις ψυχρή λογική και ανάλυση δεδομένων για να βρεις πώς θα κάνεις το καλύτερο δυνατό καλό για τον κόσμο.

Αυτό το κίνημα βρισκόταν μπροστά στην κρούση της καμπάνας του κινδύνου για το υπαρξιακό ρίσκο που μπορεί να έχει το AI. Και το έκαναν σε μια εποχή που, όπως είπαμε, όλα αυτά έμοιαζαν με τρομολαγνική εσχατολογία.

Η απάντηση στις αιτιάσεις

Παρά το ισχυρό χτύπημα που δέχτηκε το κίνημα και η Anthropic με την υπόθεση Σαμ Μπάνκμαν-Φριντ (δες περισσότερα εδώ), που είχε επενδύσει 500 εκατ. δολάρια στην εταιρεία, το φρόνημα και η επιθυμία για ασφαλή AI παραμένουν ψηλά. Κι ας υπάρχει μια αυξανόμενη τάση να κατηγορούνται τέτοιες εταιρείες από ωφελιμιστικά και προσωπικά συμφέρονται πίσω από την προβεβλημένη ηθική τους.

Εδώ εμφανίζεται και το ζήτημα της υποκρισίας: πόσο ηθικό είναι να μιλάς για τον κίνδυνο του AI, όταν επενδύεις στην ανάπτυξή του; Αυτή η μομφή ακούγεται σαν τη μομφή «κράζεις το Twitter μέσα από το Twitter;». Κι η απάντηση είναι αποστομωτική: όταν έχεις πρόβλημα με τον υδραυλικό, δεν πας να παραπονεθείς στον φούρναρη. Παραπονιέσαι στον υδραυλικό με τα μέσα επικοινωνίας που σου έχει δώσει.

Αυτό δε σημαίνει πως δεν υπάρχει πάντα ο κίνδυνος το χρήμα να αλλοιώσει εταιρείες και κίνητρα όπως της Anthropic. «Αν ένας κατασκευαστής πιστεύει ότι τα μοντέλα γλώσσας ενέχουν υπαρξιακό ρίσκο, μου φαίνεται πως το μόνο υπεύθυνο πράγμα που μπορείς να κάνεις, είναι να σταματήσεις να παράγεις εξελιγμένα μοντέλα», υποστηρίζει ο Πέρσι Λιανγκ, καθηγητής πληροφορικής στο Stanford.

Σε αυτές τις έμμεσες αιτιάσεις, ο Αμοντέι απαντά πως για να μπορέσει κανείς να φτιάξει ασφαλή μοντέλα AI, πρέπει να την μελετήσει, να αναπτύξει δικά του μοντέλα. «Τα μοντέλα που βρίσκονται στην αγορά και χρησιμοποιούν οι άνθρωποι, δεν είναι τα ασφαλή», τονίζει.

Το πιο σημαντικό όμως, όπως μας έχει διδάξει το παρελθόν, είναι πως πολλές φορές η λύση για ένα πρόβλημα, για έναν κίνδυνο, βρίσκεται ακριβώς μέσα του. Άρα, πώς θα μπορείς να απενεργοποιήσεις μια βλαπτική συμπεριφορά, αν δεν γνωρίζεις τον πυρήνα;

Το AI είναι ουδέτερο από τη φύση του. Οι άνθρωποι μπορούν να το κάνουν καλό ή κακό. Αρκεί να το ξέρουν. «Φαντάσου να έλεγαν όλοι οι ηθικά σωστοί ότι δεν θέλουν να εμπλακούν σε ανάπτυξη συστημάτων AI. Τότε, οι μόνοι που θα εμπλέκονταν θα ήταν οι άνθρωποι που αγνοούν την ηθική».

Το δίδαγμα από όλη αυτή τη διαδικασία είναι ένα: λίγη τρομολαγνεία δεν έκανε ποτέ κακό. Ο φόβος μας για το AI είναι αυτός που μας κάνει να ψάχνουμε δικλείδες ασφαλείας και να προσπαθούμε να δημιουργήσουμε προστατευτικά δίκτυα. Αν δεν υπήρχε φόβος, τότε κάποια στιγμή θα ήταν πολύ αργά. Χωρίς αυτό να σημαίνει πως αυτή η στιγμή δεν είναι πάντοτε ένα πιθανό σενάριο…