Ισχυρά συστήματα τεχνητής νοημοσύνης απειλούν την κοινωνική σταθερότητα και οι ίδιες οι εταιρείες θα θεωρηθούν υπεύθυνες για βλάβες που προκαλούνται από τα προϊόντα τους, όπως προειδοποίησε μια ομάδα ανώτερων ειδικών, συμπεριλαμβανομένων δύο «νονών» της τεχνολογίας.

Η παρέμβαση της Τρίτης έγινε καθώς πολιτικοί, εταιρείες τεχνολογίας, ακαδημαϊκοί και προσωπικότητες της κοινωνίας των πολιτών ανά τον κόσμο, ετοιμάζονται να συγκεντρωθούν στο Bletchley Park την επόμενη εβδομάδα για μια σύνοδο κορυφής αναφορικά με το ζήτημα.

«Εντελώς απερίσκεπτο» να επιδιώκουμε όλο και πιο ισχυρά συστήματα τεχνητής νοημοσύνης πριν καταλάβουμε πώς να τα κάνουμε με ασφαλή τρόπο, σημειώνουν 23 ειδικοί του ζητήματος.

«Ήρθε η ώρα να ασχοληθούμε σοβαρά με τα προηγμένα συστήματα τεχνητής νοημοσύνης», δήλωσε ο Stuart Russell, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ. «Αυτά δεν είναι παιχνίδια. Το να αυξήσουμε τις δυνατότητές τους πριν καταλάβουμε πώς να τους κάνουμε ασφαλείς είναι εντελώς απερίσκεπτο».

Και πρόσθεσε: «Υπάρχουν περισσότεροι κανονισμοί για τα σάντουιτς από ό,τι για τις εταιρείες τεχνητής νοημοσύνης».

Το έγγραφο παρότρυνε τις κυβερνήσεις να υιοθετήσουν μια σειρά πολιτικών, όπως:

  • Οι κυβερνήσεις που διαθέτουν το ένα τρίτο της χρηματοδότησης έρευνας και ανάπτυξης της τεχνητής νοημοσύνης και οι εταιρείες το ένα τρίτο των πόρων Ε&Α τους στην τεχνητή νοημοσύνη, για ασφαλή και ηθική χρήση συστημάτων.
  • Παροχή πρόσβασης σε ανεξάρτητους ελεγκτές σε εργαστήρια τεχνητής νοημοσύνης.
  • Καθιέρωση συστήματος αδειοδότησης για την κατασκευή μοντέλων αιχμής.
  • Οι εταιρείες τεχνητής νοημοσύνης πρέπει να υιοθετήσουν συγκεκριμένα μέτρα ασφαλείας εάν εντοπιστούν επικίνδυνες δυνατότητες στα μοντέλα τους.
  • Καθιστώντας τις εταιρείες τεχνολογίας υπεύθυνες για προβλέψιμες και αποτρέψιμες βλάβες από τα συστήματα τεχνητής νοημοσύνης τους.

Άλλοι, επικαλούνται τον Geoffrey Hinton και τον Yoshua Bengio, δύο από τους τρεις «νονούς της τεχνητής νοημοσύνης», οι οποίοι κέρδισαν το βραβείο ACM Turing –το αντίστοιχο του βραβείου Νόμπελ στην επιστήμη των υπολογιστών– το 2018 για την εργασία τους στην τεχνητή νοημοσύνη.

Και οι δύο είναι μεταξύ των 100 προσκεκλημένων που προσκλήθηκαν να παρακολουθήσουν τη σύνοδο κορυφής. Ο Hinton παραιτήθηκε από την Google φέτος για να στείλει μια προειδοποίηση σχετικά με αυτό που ονόμασε τον «υπαρξιακό κίνδυνο» που δημιουργεί η ψηφιακή νοημοσύνη, ενώ ο Bengio, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Μόντρεαλ, ενώθηκε μαζί του και χιλιάδες άλλους ειδικούς για να υπογράψουν μια επιστολή τον Μάρτιο. ζητώντας μορατόριουμ σε γιγάντια πειράματα τεχνητής νοημοσύνης.

Άλλοι συν-συγγραφείς των προτάσεων είναι ο συγγραφέας των μπεστ σέλερ του Sapiens, ο Noah Yuval Harari, ο Daniel Kahneman, βραβευμένος με Νόμπελ στα οικονομικά, και η Sheila McIlraith, καθηγήτρια τεχνητής νοημοσύνης στο Πανεπιστήμιο του Τορόντο, καθώς και βραβευμένη κινεζική επιστήμονας υπολογιστών. Άντι Γιάο.

Οι συγγραφείς προειδοποίησαν ότι τα απρόσεκτα αναπτυγμένα συστήματα AI απειλούν να «ενισχύουν την κοινωνική αδικία, να υπονομεύσουν τα επαγγέλματά μας, να διαβρώσουν την κοινωνική σταθερότητα, να ενεργοποιήσουν εγκληματικές ή τρομοκρατικές δραστηριότητες μεγάλης κλίμακας και να αποδυναμώσουν την κοινή μας κατανόηση της πραγματικότητας που είναι θεμελιώδης για την κοινωνία».

Προειδοποίησαν ότι τα τρέχοντα συστήματα τεχνητής νοημοσύνης έδειχναν ήδη σημάδια ανησυχητικών δυνατοτήτων που δείχνουν τον δρόμο προς την εμφάνιση αυτόνομων συστημάτων που μπορούν να σχεδιάσουν, να επιδιώξουν στόχους και να «δράσουν στον κόσμο». Το μοντέλο GPT-4 AI που τροφοδοτεί το εργαλείο ChatGPT, το οποίο αναπτύχθηκε από την αμερικανική εταιρεία OpenAI, μπόρεσε να σχεδιάσει και να εκτελέσει πειράματα χημείας, να περιηγηθεί στο διαδίκτυο και να χρησιμοποιήσει εργαλεία λογισμικού, συμπεριλαμβανομένων άλλων μοντέλων τεχνητής νοημοσύνης, είπαν οι ειδικοί.

«Εάν κατασκευάσουμε εξαιρετικά προηγμένο αυτόνομο AI, κινδυνεύουμε να δημιουργήσουμε συστήματα που επιδιώκουν αυτόνομα ανεπιθύμητους στόχους», προσθέτοντας ότι «ίσως να μην είμαστε σε θέση να τους κρατήσουμε υπό έλεγχο».

Άλλες συστάσεις πολιτικής στο έγγραφο περιλαμβάνουν:

  • υποχρεωτική αναφορά περιστατικών όπου τα μοντέλα παρουσιάζουν ανησυχητική συμπεριφορά
  • λήψη μέτρων για να σταματήσει η αναπαραγωγή επικίνδυνων μοντέλων
  • παραχώρηση στις ρυθμιστικές αρχές την εξουσία να διακόπτουν την ανάπτυξη μοντέλων τεχνητής νοημοσύνης που παρουσιάζουν επικίνδυνες συμπεριφορές

Η σύνοδος κορυφής για την ασφάλεια την επόμενη εβδομάδα θα επικεντρωθεί σε υπαρξιακές απειλές που θέτει η τεχνητή νοημοσύνη, όπως η βοήθεια στην ανάπτυξη νέων βιοόπλων και η αποφυγή του ανθρώπινου ελέγχου. Η κυβέρνηση του Ηνωμένου Βασιλείου εργάζεται με άλλους συμμετέχοντες σε μια δήλωση που αναμένεται να υπογραμμίσει την κλίμακα της απειλής από τη συνοριακή τεχνητή νοημοσύνη – τον όρο για προηγμένα συστήματα.

Ωστόσο, ενώ η σύνοδος κορυφής θα περιγράψει τους κινδύνους από την τεχνητή νοημοσύνη και τα μέτρα για την καταπολέμηση της απειλής, δεν αναμένεται να δημιουργηθεί επίσημα ένας παγκόσμιος ρυθμιστικός φορέας.

Ορισμένοι ειδικοί της τεχνητής νοημοσύνης υποστηρίζουν ότι οι φόβοι για την υπαρξιακή απειλή για τους ανθρώπους είναι υπερβολικοί. Ο άλλος νικητής του βραβείου Turing για το 2018 μαζί με τον Bengio και τον Hinton, ο Yann LeCun, τώρα επικεφαλής επιστήμονας τεχνητής νοημοσύνης στην Meta του Mark Zuckerberg, που συμμετέχει επίσης στη σύνοδο κορυφής, δήλωσε στους Financial Times ότι η ιδέα ότι η τεχνητή νοημοσύνη θα μπορούσε να εξοντώσει τους ανθρώπους ήταν «παράλογη».

Παρόλα αυτά, οι συντάκτες του εγγράφου, υποστήριξαν ότι αν εμφανίζονταν τώρα προηγμένα αυτόνομα συστήματα τεχνητής νοημοσύνης, ο κόσμος δεν θα ήξερε πώς να τα κάνει με ασφαλή τρόπο ή πώς να τα κάνει δοκιμές ασφαλείας. «Ακόμα κι αν το κάναμε, οι περισσότερες χώρες δεν διαθέτουν τους θεσμούς για την πρόληψη της κακής χρήσης και την τήρηση ασφαλών πρακτικών», πρόσθεσαν.