Ένας πρωτοπόρος της τεχνητής νοημοσύνης (ΑΙ) είπε ότι παραιτήθηκε από την Google ώστε να μπορεί να μιλάει ελεύθερα σχετικά με τους κινδύνους που ενέχει η τεχνολογία αυτή έχοντας συνειδητοποιήσει ότι οι υπολογιστές μπορεί να γίνουν εξυπνότεροι από τον άνθρωπο πολύ νωρίτερα από ό,τι ο ίδιος και άλλοι ειδικοί ανέμεναν.

«Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την AI χωρίς να πρέπει να σκεφτώ με ποιον τρόπο αυτό θα επηρεάσει την Google», έγραψε στο Twitter ο Τζέφρι Χίντον.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Σε συνέντευξή του στην εφημερίδα Τhe New York Times, ο Χίντον εξέφρασε την ανησυχία του σχετικά με την ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικές ψευδείς εικόνες και κείμενα συνθέτοντας έναν κόσμο όπου οι άνθρωποι «δεν θα μπορούν πλέον να γνωρίζουν τι είναι αληθινό».

«Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδίσει τους κακόβουλους χρήστες από το να τη χρησιμοποιήσουν για αρνητικούς λόγους», σχολίασε.

Η τεχνολογία αυτή θα μπορούσε σύντομα να αντικαταστήσει το υπαλληλικό προσωπικό και να καταστεί μεγαλύτερος κίνδυνος καθώς μαθαίνει νέες συμπεριφορές.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

«Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο…λίγοι το πίστευαν. Αλλά οι περισσότεροι θεωρούσαν ότι ήταν μακρινό. Νόμιζα ότι θα γινόταν σε 30 με 50 χρόνια, ίσως και περισσότερα. Προφανώς πλέον δεν πιστεύω κάτι τέτοιο», είπε ο Χίντον στους New York Times.

Όπως έγραψε στο Twitter ο Χίντον, η ίδια η Google «ενήργησε πολύ υπεύθυνα» και διέψευσε ότι παραιτήθηκε για να μπορεί να κατακρίνει τον πρώην εργοδότη του.

Η Google, θυγατρική εταιρεία της Alphabet Inc, δεν απάντησε άμεσα σε αίτημα για σχόλιο από το Reuters.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Η εφημερίδα επικαλείται τον επικεφαλής επιστήμονα της Google, τον Τζεφ Ντιν, ο οποίος αναφέρει σε ανακοίνωσή του: «Παραμένουμε δεσμευμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Διαρκώς μαθαίνουμε να αντιλαμβανόμαστε τους αναδυόμενους κινδύνους, ενώ ταυτόχρονα καινοτομούμε τολμηρά».

Πηγή φωτογραφίας: The Guardian 

σχόλια αναγνωστών
oδηγός χρήσης