Σύνταξη – επιμέλεια: Στέλιος Βασιλούδης

Ο Max Tegmark υποστηρίζει ότι η υποβάθμιση δεν είναι τυχαία και απειλεί να καθυστερήσει τους απαιτούμενους αυστηρούς κανονισμούς – μέχρι να είναι πολύ αργά.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Η μεγάλες εταιρείες τεχνολογίας κατάφεραν να αποσπάσουν την προσοχή του κόσμου από τον υπαρξιακό κίνδυνο για την ανθρωπότητα που εξακολουθεί να θέτει η τεχνητή νοημοσύνη, προειδοποιεί κορυφαίος επιστήμονας και ακτιβιστής της τεχνητής νοημοσύνης.

Μιλώντας με τον Guardian στο AI Summit στη Σεούλ της Νότιας Κορέας, ο Max Tegmark είπε ότι η αλλαγή της εστίασης από την εξαφάνιση της ζωής σε μια ευρύτερη αντίληψη για την ασφάλεια της τεχνητής νοημοσύνης, κινδυνεύει να οδηγήσει σε απαράδεκτη καθυστέρηση την επιβολή αυστηρών ρυθμίσεων στους δημιουργούς των πιο ισχυρών προγραμμάτων.

«Το 1942, ο Enrico Fermi κατασκεύασε τον πρώτο αντιδραστήρα με αυτοσυντηρούμενη πυρηνική αλυσιδωτή αντίδραση, κάτω από ένα γήπεδο ποδοσφαίρου στο Σικάγο», λέει ο Tegmark, ο οποίος σπούδασε Φυσική. «Όταν οι κορυφαίοι φυσικοί της εποχής το έμαθαν, τρόμαξαν πραγματικά γιατί συνειδητοποίησαν ότι το μοναδικό μεγαλύτερο εμπόδιο που απέμενε για την κατασκευή μιας πυρηνικής βόμβας είχε μόλις ξεπεραστεί. Συνειδητοποίησαν ότι ήταν μόλις λίγα χρόνια μακριά – και στην πραγματικότητα ήταν τρία χρόνια –  με το τεστ Trinity το 1945.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

«Τα μοντέλα AI που μπορούν να περάσουν το τεστ Turing (όπου κάποιος δεν μπορεί να ξεχωρίσει αν στη συνομιλία μιλάει σε άλλον άνθρωπο η σε μηχανή), είναι η ίδια προειδοποίηση για το είδος της τεχνητής νοημοσύνης όπου μπορεί να χαθεί ο έλεγχος. Αυτός είναι ο λόγος για τον οποίο άνθρωποι όπως ο Geoffrey Hinton και ο Yoshua Bengio, ακόμα και πολλοί CEOs τεχνολογίας ανησυχούν τώρα – τουλάχιστον ιδιωτικά», συμπληρώνει.

Το μη κερδοσκοπικό Ινστιτούτο Future of Life της Tegmark ηγήθηκε πέρυσι της έκκλησης για μια εξάμηνη «παύση» στην προηγμένη έρευνα τεχνητής νοημοσύνης λόγω αυτών των φόβων. «Η κυκλοφορία του μοντέλου GPT-4 της OpenAI τον Μάρτιο του ίδιου έτους ήταν το καναρίνι στο ανθρακωρυχείο», προσθέτει, «και απέδειξε ότι ο κίνδυνος ήταν απαράδεκτα κοντά».

Παρά τις χιλιάδες υπογραφές, από ειδικούς όπως ο Hinton και ο Bengio – δύο από τους τρεις «νονούς» της τεχνητής νοημοσύνης που πρωτοστάτησαν στην εξέλιξη της μηχανικής μάθησης που στηρίζει το πεδίο σήμερα – δεν συμφωνήθηκε παύση.

Αντίθετα, οι σύνοδοι κορυφής της τεχνητής νοημοσύνης, από τις οποίες η Σεούλ είναι η δεύτερη μετά από αυτή στο Bletchley Park στο Ηνωμένο Βασίλειο τον περασμένο Νοέμβριο, ηγήθηκαν του νεοφυούς πεδίου ρύθμισης της τεχνητής νοημοσύνης.  «Θέλαμε αυτή η επιστολή να νομιμοποιήσει τη συζήτηση και είμαστε πολύ ευχαριστημένοι με το πώς λειτούργησε. Μόλις ο κόσμος είδε ότι άνθρωποι όπως ο Bengio ανησυχούν, σκέφτηκαν ότι θα πρέπει να προβληματιστούν. Ακόμη και ο τύπος στο βενζινάδικο μου είπε ότι μετά από αυτό, ανησυχεί μήπως μας αντικαταστήσει η τεχνητή νοημοσύνη», λέει ο Tegmark.

Προσθέτει: «Αλλά τώρα, πρέπει να περάσουμε από την απλή ομιλία στην πράξη».

Ωστόσο, από την αρχική ανακοίνωση της συνόδου κορυφής του Bletchley Park, το επίκεντρο της διεθνούς ρύθμισης της τεχνητής νοημοσύνης έχει απομακρυνθεί από τον υπαρξιακό κίνδυνο. Στη Σεούλ, μόνο μία από τις τρεις ομάδες «υψηλού επιπέδου» ασχολήθηκε άμεσα με την ασφάλεια και εξέτασε το «πλήρες φάσμα» των κινδύνων, «από τις παραβιάσεις της ιδιωτικής ζωής έως τις διαταραχές της αγοράς εργασίας και τα πιθανά καταστροφικά αποτελέσματα». Ο Tegmark υποστηρίζει ότι η υποβάθμιση των πιο σοβαρών κινδύνων δεν είναι ένδειξη υγιούς σκεψης – και δεν είναι τυχαία.

«Αυτό ακριβώς προέβλεψα ότι θα συμβεί από το λόμπι της βιομηχανίας», λέει. «Το 1955, κυκλοφόρησαν τα πρώτα άρθρα σε περιοδικά που έλεγαν ότι το κάπνισμα προκαλεί καρκίνο του πνεύμονα και θα πίστευες ότι πολύ γρήγορα θα υπήρχε κάποια ρύθμιση. Όμως όχι, χρειάστηκε να έρθει το 1980, γιατί υπήρξε αυτή η τεράστια ώθηση από τη βιομηχανία για να αποσπάσει την προσοχή. Νιώθω ότι αυτό συμβαίνει τώρα».

Συνεχίζοντας λέει ότι «Φυσικά η τεχνητή νοημοσύνη προκαλεί και τρέχουσες βλάβες: υπάρχει προκατάληψη, βλάπτει τις περιθωριοποιημένες ομάδες». Αλλά όπως είπε η γραμματέας επιστήμης και τεχνολογίας του Ηνωμένου Βασιλείου Michelle Donelan, δεν είναι ότι δεν μπορούμε να αντιμετωπίσουμε και τα δύο. Είναι σαν να λέμε, «Ας μην δώσουμε καμία σημασία στην κλιματική αλλαγή γιατί θα υπάρξει τυφώνας φέτος, οπότε θα πρέπει απλώς να επικεντρωθούμε στον τυφώνα».

Οι επικριτές του Tegmark έχουν διατυπώσει το ίδιο επιχείρημα για τους δικούς του ισχυρισμούς: ότι η βιομηχανία θέλει όλοι να μιλούν για υποθετικούς κινδύνους στο μέλλον για να αποσπάσουν την προσοχή από συγκεκριμένες βλάβες στο παρόν, μια κατηγορία που ο ίδιος απορρίπτει. «Ακόμα και αν το σκεφτείς με τους δικούς του όρους, είναι αρκετά εξώφθαλμο: θα ήταν πολύ εντυπωσιακά παλαβό για κάποιον όπως ο Sam Altman (αφεντικό της Open AI), προκειμένου να αποφύγει τη ρύθμιση, να πει σε όλους ότι θα πρέπει να κατεβάσουν τον κεντρικό διακόπτη του ηλεκτρικου, και μετά να προσπαθήσει να πείσει ανθρώπους σαν εμάς να κρούσουμε τον κώδωνα του κινδύνου».

Αντίθετα, ο Tegmark υποστηρίζει ότι η σιωπηλή υποστήριξη από ορισμένους ηγέτες τεχνολογίας οφείλεται στο ότι « όλοι νιώθουν ότι έχουν κολλήσει σε μια αδιανοητη κατάσταση όπου, ακόμα κι αν θέλουν να σταματήσουν, δεν μπορούν. Αν ένας Διευθύνων Σύμβουλος μιάς καπνοβιομηχανίας ξυπνήσει ένα πρωί και νιώσει ότι αυτό που κάνει δεν είναι σωστό, τι θα συμβεί; Θα τον αντικαταστήσουν με άλλον. Επομένως, ο μόνος τρόπος για να δοθεί προτεραιότητα στην ασφάλεια, είναι να θέσει η κυβέρνηση σε εφαρμογή πρότυπα ασφαλείας για όλους», καταλήγει.

Πηγή: The Guardian

σχόλια αναγνωστών
oδηγός χρήσης