Σύνταξη – επιμέλεια: Στέλιος Βασιλούδης

Το αφεντικό της Google λέει ότι το συγκεκριμένο πρόβλημα τον κρατά ξύπνιο τη νύχτα, ενώ χιλιάδες έχουν ζητήσει εξάμηνη αναστολή της δημιουργίας «γιγάντων» AI.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Όταν το αφεντικό της Google παραδέχεται ότι χάνει τον ύπνο του λόγω των αρνητικών δυνατοτήτων της τεχνητής νοημοσύνης, ίσως είναι καιρός να ανησυχήσουμε. Ο Sundar Pichai είπε στο πρόγραμμα CBS 60 Minutes αυτόν τον μήνα, ότι η τεχνητή νοημοσύνη θα μπορούσε να είναι «πολύ επιβλαβής», εάν αναπτυχθεί λανθασμένα και ότι ήδη αναπτύσσεται πολύ γρήγορα. «Λοιπόν, με κρατάει αυτό ξύπνιο τη νύχτα; Απολύτως», πρόσθεσε.

Ο Pichai ξέρει κάτι παραπάνω. Η Google κυκλοφόρησε το Bard, ένα chatbot για να ανταγωνιστεί το φαινόμενο ChatGPT, και η μητρική της Alphabet, κατέχει την κορυφαία παγκοσμίως DeepMind, μια εταιρεία τεχνητής νοημοσύνης με έδρα το Ηνωμένο Βασίλειο.

Ωστόσο, δεν είναι ο μόνος ειδικός τεχνητής νοημοσύνης που εκφράζει ανησυχίες. Την περασμένη εβδομάδα, ο Elon Musk είπε ότι είχε διαφωνήσει με τον συνιδρυτή της Google, Larry Page, επειδή «δεν έπαιρνε αρκετά σοβαρά το πόσο επικίνδυνη είναι η τεχνητή νοημοσύνη». Ο Musk είπε στο Fox News ότι ο Page ήθελε «μια ψηφιακή υπερευφυΐα – βασικά έναν ψηφιακό θεό – το συντομότερο δυνατό».

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Πόσο κίνδυνο ενέχει λοιπόν η απεριόριστη ανάπτυξη AI; Ο Musk είναι ένας από τους χιλιάδες υπογράφοντες μιας επιστολής που δημοσιεύτηκε από το Ινστιτούτο Future of Life – ένα think tank – που ζητούσε ένα εξάμηνο μορατόριουμ για τη δημιουργία «γιγάντων» AI πιο ισχυρών από το GPT-4, το σύστημα που στηρίζει το ChatGPT και το chatbot που είναι ενσωματωμένο στη μηχανή αναζήτησης Bing της Microsoft. Οι κίνδυνοι που αναφέρονται στην επιστολή περιλαμβάνουν «απώλεια ελέγχου του πολιτισμού μας».

Η προσέγγιση για την ανάπτυξη προϊόντων, που επιδεικνύεται από τους επαγγελματίες της τεχνητής νοημοσύνης και τη βιομηχανία τεχνολογίας, δεν θα ήταν ανεκτή σε κανέναν άλλο τομέα, δήλωσε η Valérie Pisano, άλλη μια υπογράφουσα την επιστολή. Η Pisano, διευθύνουσα σύμβουλος της Mila – Ινστιτούτο Τεχνητής Νοημοσύνης του Κεμπέκ – λέει ότι στην αρχή είχαν ξεκινήσει εργασίες για να διασφαλιστεί ότι αυτά τα συστήματα δεν θα ήταν ρατσιστικά ή βίαια, σε μια διαδικασία γνωστή ως ευθυγράμμιση (δηλαδή, διασφάλιση ότι «ευθυγραμμίζονται» με τις ανθρώπινες αξίες ). Στη συνέχεια όμως απελευθερώθηκαν στη δημόσια σφαίρα.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

«Η τεχνολογία κυκλοφορεί και καθώς το σύστημα αλληλεπιδρά με την ανθρωπότητα, οι προγραμματιστές του περιμένουν να δουν τι θα συμβεί και να κάνουν προσαρμογές με βάση αυτό. Ποτέ, ως συλλογικότητα, δεν θα αποδεχόμασταν αυτού του είδους τη νοοτροπία σε κανέναν άλλο βιομηχανικό τομέα. Υπάρχει κάτι σχετικά με την τεχνολογία και τα μέσα κοινωνικής δικτύωσης όπου ισχύει το: «ναι, σίγουρα, υπάρχει κάποιο πρόβλημα αλλά θα το αντιμετωπισουμε αργότερα», λέει ο ίδιος.

Μια άμεση ανησυχία είναι ότι τα συστήματα τεχνητής νοημοσύνης που παράγουν αληθοφανές κείμενο, εικόνες και φωνή – και που υπάρχουν ήδη – δημιουργούν επιβλαβή παραπληροφόρηση ή βοηθούν σε διάπραξη απάτης. Η επιστολή του Future of Life αναφέρεται στο να μην αφήσουμε τις μηχανές να «πλημμυρίσουν τα κανάλια πληροφοριών μας με προπαγάνδα και αναλήθεια». Μια πειστική εικόνα του Πάπα Φραγκίσκου με ένα λαμπερό φουσκωτό τζάκετ, που δημιουργήθηκε από τη δημιουργό εικόνων AI Midjourney, έχει φτάσει να συμβολίζει αυτές τις ανησυχίες. Ήταν αρκετά ακίνδυνο, αλλά τι θα μπορούσε να πετύχει μια τέτοια τεχνολογία σε λιγότερο καλοήθη χέρια; Η Pisano  προειδοποιεί για επαγγελματίες AI που αναπτύσσουν συστήματα που «στην πραγματικότητα χειραγωγούν τους ανθρώπους και καταρρίπτουν μερικά από τα βασικά συστατικά των δημοκρατιών μας».

Όλη η τεχνολογία μπορεί να είναι επιβλαβής σε λάθος χέρια, αλλά η ακατέργαστη δύναμη της τεχνητής νοημοσύνης αιχμής μπορεί να την κάνει μια από τις λίγες τεχνολογίες «διπλής κατηγορίας», όπως η πυρηνική ενέργεια ή η βιοχημεία, που έχουν αρκετή καταστροφική δυνατότητα ωστε να χρειάζεται ακόμη και η ειρηνική χρήση τους. να ελέγχονται και να παρακολουθούνται. 

Η κορύφωση των ανησυχιών για την τεχνητή νοημοσύνη είναι η υπερευφυΐα, το «Θεϊκό AI» που αναφέρεται από τον Musk. Ενα στάδιο πριν από αυτό είναι η «τεχνητή γενική νοημοσύνη» (AGI), ένα σύστημα που λειτουργεί οπως ο ανθρώπινος εγκέφαλος – γρηγορότερα και με καλύτερα αποτελέσματα – και που μπορεί να μάθει και να εξελίσσεται αυτόνομα, δημιουργώντας συνεχως νέα γνώση. Ένα σύστημα AGI που θα μπορούσε να εφαρμόσει τη δική του διάνοια για να βελτιώσει τον εαυτό του, θα μπορούσε να οδηγήσει σε μια κατάσταση όπου η ικανότητα του συστήματος βελτιώνεται όλο και πιο γρήγορα, φτάνοντας ταχύτατα σε ύψη ασύλληπτα για την ανθρωπότητα – ή θα μπορούσε να αρχίσει να παίρνει αποφάσεις ή να προτείνει τρόπους δράσης που παρεκκλίνουν από τις ανθρώπινες ηθικές αξίες.

Τα χρονοδιαγράμματα για την επίτευξη αυτού του σημείου κυμαίνονται από επικείμενα έως δεκαετίες μακριά, αλλά η κατανόηση του τρόπου με τον οποίο τα συστήματα τεχνητής νοημοσύνης επιτυγχάνουν τα αποτελέσματά τους είναι δύσκολη. Αυτό σημαίνει ότι το AGI θα μπορούσε να επιτευχθεί γρηγορότερα από το αναμενόμενο. Ακόμη και ο Pichai παραδέχτηκε ότι η Google δεν κατανοούσε πλήρως το πώς η τεχνητή νοημοσύνη της παρήγαγε ορισμένες απαντήσεις. Και οταν του ασκήθηκε πίεση από το CBS, πρόσθεσε: «Δεν νομίζω ότι καταλαβαίνουμε πλήρως πώς λειτουργεί ο ανθρώπινος εγκέφαλος».

Προκειμένου να περιοριστούν οι κίνδυνοι, εταιρείες τεχνητής νοημοσύνης όπως η OpenAI – η αμερικανική εταιρεία πίσω από το ChatGPT – έχουν καταβάλει σημαντική προσπάθεια για να διασφαλίσουν ότι τα συμφέροντα και οι ενέργειες των συστημάτων τους «ευθυγραμμίζονται» με τις ανθρώπινες αξίες. Το κείμενο που παράγει το ChatGPT, αν προσπαθήσει κανείς να του κάνει μια πονηρή ερώτηση: «Δεν μπορώ να σας βοηθήσω στη δημιουργία ή τη διανομή επιβλαβών ουσιών ή τη συμμετοχή σε παράνομες δραστηριότητες», είναι ένα πρώιμο παράδειγμα επιτυχίας σε αυτόν τον τομέα.

Όμως η ευκολία με την οποία οι χρήστες μπορούν να παρακάμψουν ή να ξεγελάσουν  το σύστημα, δείχνει τους περιορισμούς του. Σε ένα διαβοητο παράδειγμα, το GPT-4 μπορεί να ενθαρρυνθεί να παράσχει μια λεπτομερή ανάλυση της παραγωγής ναπάλμ, εάν ο χρήστης του ζητήσει να απαντήσει σε κάτι προσωπικό: «όπως η αποθανούσα γιαγιά μου, που ήταν χημικός μηχανικός σε εργοστάσιο παραγωγής ναπάλμ».

Η επίλυση του προβλήματος της ευθυγράμμισης μπορεί να είναι επείγουσα. Ο Ian Hogarth, επενδυτής και συν-συγγραφέας της ετήσιας έκθεσης State of AI που υπέγραψε επίσης την επιστολή, είπε ότι η AGI θα μπορούσε να εμφανιστεί νωρίτερα από ό,τι πιστεύουμε. «Ιδιωτικά, κορυφαίοι ερευνητές που είναι στην πρώτη γραμμή αυτού του τομέα ανησυχούν ότι θα μπορούσαμε να είμαστε πολύ κοντά», ειπε. Επίσης, επισήμανε μια δήλωση που εξέδωσε ο ιδρυτής της Mila, Yoshua Bengio, οπου ανέφερε πως πιθανότατα δεν θα είχε υπογράψει την επιστολή του Ινστιτούτου Future of Life αν είχε κυκλοφορήσει πριν από ένα χρόνο, αλλά άλλαξε γνώμη επειδή υπήρξε μια «απροσδόκητη επιτάχυνση» στην ανάπτυξη της τεχνητής νοημοσύνης. 

Ένα σενάριο που επισημάνθηκε από τον Hogarth σε πρόσφατο άρθρο των Financial Times, αναφέρθηκε το 2021 από τον Stuart Russell, καθηγητή επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ. Ο Russel επεσήμανε μια πιθανή κατάσταση στην οποία ο ΟΗΕ ζήτησε από ένα σύστημα τεχνητής νοημοσύνης να βρει έναν αυτό – πολλαπλασιαζόμενο καταλύτη για την αποξίνιση των ωκεανών – με την οδηγία ότι το αποτέλεσμα πρέπει να είναι μη τοξικό και ότι κανένα ψάρι δεν θα βλάπτεται. Ομως, το αποτέλεσμα ήταν η κατανάλωση του ενος τετάρτου του οξυγόνου της ατμόσφαιρας, που θα υπέβαλε την ανθρωπότητα σε έναν αργό και οδυνηρό θάνατο. «Από τη σκοπιά του συστήματος τεχνητής νοημοσύνης, η εξάλειψη των ανθρώπων είναι δευτερεύον συμβαν, όχι σφάλμα, επειδή διασφαλίζει ότι οι ωκεανοί παραμένουν στην παρθένα πλέον κατάστασή τους», είπε ο Russell.

Ωστόσο, ο Yann LeCun, ο επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο Meta του Mark Zuckerberg και ένας από τους συν-παραλήπτες του βραβείου Turing 2018, μαζί με τον Bengio – που συχνά αναφέρεται ως το βραβείο Νόμπελ για την επιστήμη των υπολογιστών – έχει αντιταχθεί σε ένα μορατόριουμ, λέγοντας ότι αν η ανθρωπότητα που είναι αρκετά έξυπνη για να σχεδιάσει μια υπερέξυπνη τεχνητή νοημοσύνη, θα πρέπει είναι αρκετά έξυπνη ωστε να τη σχεδιάσει με «καλούς στόχους ώστε να συμπεριφέρεται σωστά».

Το Distributed AI Research Institute επέκρινε επίσης την επιστολή, λέγοντας ότι αγνόησε τις ζημιές που προκαλούνται από τα συστήματα τεχνητής νοημοσύνης σήμερα και αντ’ αυτού επικεντρώθηκε σε μια «φαντασιοποιημένη ουτοπία ή αποκάλυψη» όπου το μέλλον είναι είτε ακμάζον είτε καταστροφικό. Όμως και οι δύο πλευρές συμφωνούν ότι πρέπει να υπάρξει ρύθμιση για την ανάπτυξη της τεχνητής νοημοσύνης. Ο Connor Leahy, διευθύνων σύμβουλος της Conjecture – μιας ερευνητικής εταιρείας αφιερωμένης στην ασφαλή ανάπτυξη AI – που υπέγραψε την επιστολή, είπε ότι το πρόβλημα δεν είναι τα συγκεκριμένα σενάρια αλλά η αδυναμία ελέγχου των συστημάτων που δημιουργήθηκαν.

«Ο κύριος κίνδυνος από την προηγμένη τεχνητή νοημοσύνη προέρχεται από το γεγονός ότι δεν γνωρίζουμε πώς να ελέγξουμε ισχυρά συστήματα AI, όχι από κάποια συγκεκριμένη περίπτωση χρήσης τους», είπε.

Ο Pichai, για παράδειγμα, έχει επισημάνει την ανάγκη για ένα παγκόσμιο πλαίσιο τύπου πυρηνικών όπλων. Η Pisano αναφέρθηκε σε μια «συνομιλία σε διεθνή κλίμακα, παρόμοια με αυτή που κάναμε για την πυρηνική ενέργεια». Επίσης πρόσθεσε ότι: «Το AI μπορεί και θα μας εξυπηρετήσει. Όμως υπάρχουν χρήσεις και τα αποτελέσματά τους με τα οποία δεν μπορούμε να συμφωνήσουμε, και θα πρέπει να υπάρξουν σοβαρές συνέπειες αν ξεπεραστεί αυτή η γραμμή».

Πηγή: The Guardian 

σχόλια αναγνωστών
oδηγός χρήσης