Η Τεχνητή Νοημοσύνη στις ημέρες μας δείχνει να μην είναι αρκετή ώστε να ανταποκριθεί στις υψηλές προσδοκίες που προβάλλουν πλέον σχεδόν όλες οι επιστήμες πάνω στις «ευφυείς μηχανές». Η υπέρβαση αυτή συνίσταται στους εναλλακτικούς τρόπους διαχείρισης προβλημάτων εκ μέρους των μηχανών, όπου υπεισέρχεται ο παράγοντας του ρίσκου.

Για να καταδειχθεί παραστατικά του λόγου το αληθές θα χρησιμοποιήσουμε ένα παράδειγμα που τείνει να γίνει πλέον κλασικό, εκείνο που αφορά το πλέον δημοφιλές ανά τους αιώνες επιτραπέζιο παιχνίδι, το σκάκι. Όλες οι πιθανότητες συνδυασμών σε ένα τυπικό παιχνίδι σκάκι περίπου σαράντα κινήσεων φτάνουν το ποσό των 10120, αριθμός τερατώδης. Δεν έχουν υπάρξει 10120 διαφορετικές κβαντικές καταστάσεις όλων των υποατομικών σωματιδίων σε ολόκληρη την ιστορία του γνωστού σύμπαντος. Επομένως είναι πολύ δύσκολο (έως ανέφικτο) να υπάρξει κάποτε μία μηχανή, η οποία με τη χρήση της συμβατικής λογικής, να μπορέσει να υπολογίσει με ακρίβεια όλες τις πιθανές κινήσεις ώστε να χαρακτηριστεί ανίκητη σε μια παρτίδα σκάκι (Haugeland, 1989). Αυτό το φαινόμενο συμβαίνει και σε άλλους τομείς, όπου κάθε δυνατότητα επιλογής οδηγεί με τη σειρά της σε ένα υποσύνολο επιλογών, και ονομάζεται «συνδυαστική έκρηξη» (Haugeland, 1989). Αυτοί οι τομείς τυγχάνει όμως να είναι και οι πιο ενδιαφέροντες των επιστημών. Η δυσκολία αυτή της τυπικής λογικής κάνει την Τεχνητή Νοημοσύνη να χρειάζεται να υπερβεί τον εαυτό της, την τυπική μαθηματική λογική.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Η υπέρβαση αυτή συνίσταται στους εναλλακτικούς τρόπους διαχείρισης προβλημάτων εκ μέρους των μηχανών, όπου υπεισέρχεται ο παράγοντας του ρίσκου. Η μηχανή θα επιλέξει σε μια παρτίδα σκάκι την κίνηση που είναι λιγότερο πιθανή να της αποφέρει προβλήματα. Αφού όμως ανακύψει κάποιο πρόβλημα, η μηχανή θα μάθει από τα λάθη της ώστε να μην το επαναλάβει. Γι αυτό και πλέον έχουν γίνει απτή πραγματικότητα τα λεγόμενα έμπειρα συστήματα, ή τα προγράμματα πράκτορες που γνωρίζουν ιδιαίτερη άνθιση μέσω του διαδικτύου. Μέσα σε αυτά τα πλαίσια αναπτύσσεται με γοργούς ρυθμούς και ο κλάδος της ρομποτικής, απαραίτητος εδώ και αρκετά χρόνια σε πολλές περιπτώσεις του καθημερινού μας βίου (Βλαχαβάς, Κεφαλάς, Βασιλειάδης, Ρεφανίδης, Κόκκορας, Σακελλαρίου, 2002). Έκπληξη προκάλεσε σε όλο τον κόσμο το 1997 η νίκη του ανανεωμένου υπολογιστή της IBM Deep Blue 2 εναντίον του παγκοσμίου πρωταθλητή στο σκάκι Garry Kasparov –ο οποίος είχε νικήσει στο παρελθόν τον Deep Blue 1-. Σύμφωνα βέβαια με την κατασκευάστρια εταιρεία, ο υπερυπολογιστής αυτός χρησιμοποιεί απλά τεράστια υπολογιστική ισχύ και δεν περιέχει κάποιο ιδιαίτερο είδος Νοημοσύνης (IBM, 1997). Πρόσφατα ένας ανάλογος υπολογιστής, ο Deep Fritz μαθαίνει από τα λάθη του και έτσι εξελίσσει δυναμικά την σκακιστική του δεινότητα αποκομίζοντας θετικά αποτελέσματα απέναντι σε ανθρώπους πρωταθλητές.

Υπερυπολογιστές, ρομπότ και έμπειρα συστήματα επιδεικνύουν βεβαίως νοημοσύνη και φυσικά κάποιες ιδιότητες που μπορούν να φανούν ανθρώπινες, όπως και το συναίσθημα που θα αναλύσουμε στη συνέχεια. Παρόλαυτά κάποιος θα ήταν αφελής αν πίστευε ότι στο προσεχές μέλλον θα έχουμε τη δυνατότητα να μοντελοποιήσουμε τον άνθρωπο και να τον αναπαράγουμε ώστε να έχουμε τη δυνατότητα να επικοινωνούμε μαζί του όπως και με έναν εκ γενετής άνθρωπο. Η νοημοσύνη στις μηχανές δεν πρέπει να ταυτίζεται με εκείνο που μας προβάλλουν ως εικόνα οι ανάλογες ταινίες του Hollywood (Hawkins, 2004). Παρόλαυτά, τον Ιούνιο του 2005, ξεκίνησε ήδη μία προσπάθεια (χρονοδιαγράμματος δύο ετών) μηχανικής αναπαράστασης ενός λεπτομερούς σχεδίου κυκλώματος του εγκεφαλικού φλοιού, του μεγαλύτερου δηλαδή και πολυπλοκότερου μέρους του ανθρωπίνου εγκεφάλου. Το φιλόδοξο αυτό σχέδιο ονομάζεται Blue Brain Project (IBM, 2005). Επίσης πολλές μελέτες γίνονται τα τελευταία χρόνια που φιλοδοξούν να μοντελοποιήσουν διάφορες εκφάνσεις της ανθρώπινης προσωπικότητας ώστε να επιτευχθεί αποτελεσματική και «ανθρώπινη» επικοινωνία με μία μηχανή. Η κατανόηση και η επακόλουθη μοντελοποίηση της ανθρώπινης συμπεριφοράς είναι το πρώτο και βασικότερο βήμα που πρέπει να κάνει ο επιστήμονας που φιλοδοξεί να στήσει μια στέρεα γέφυρα επικοινωνίας με μία μηχανή (Narayanan, 2002). Ο Hawkins όμως παρατηρεί ότι δεν είναι αρκετή η μοντελοποίηση του εγκεφαλικού φλοιού του ανθρώπου ώστε να πούμε ότι δημιουργούμε κάτι ισάξιο της ανθρώπινης γνωσιακής λειτουργίας. Η πολυπλοκότητα του ανθρώπου έγκειται σε όλο το εύρος του σώματος και των λειτουργιών του, αποτελώντας έτσι μια αναπόσπαστη ολότητα που δύσκολα θα μπορέσει να μοντελοποιηθεί στο έπακρο από την τεχνολογία και τις ανάλογες επιστήμες στο προσεχές μέλλον (Hawkins, 2004).

Τι πρέπει να κάνουμε για να αναπτύξουμε μια μηχανή με Συναισθηματική Νοημοσύνη;

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Σε αυτό το ερώτημα η έμπνευση των επιστημόνων προέρχεται καθαρά από την ίδια τη φύση και τις διαδικασίες με τις οποίες αναπτύσσει και εξελίσσει τα είδη. Στη φύση διακρίνουμε αφενός ζώντες οργανισμούς που έχουν κληρονομήσει ικανότητες επιβίωσης (όπως για παράδειγμα τα θαλάσσια χελωνάκια που μόλις σπάσουν το περίβλημα του αυγού τους προσανατολίζονται μόνα τους στη θάλασσα και ξεκινούν ανεξάρτητα την περιπέτεια της ζωής τους) και αφετέρου εκείνους τους οργανισμούς που αποκτούν σταδιακά τις ικανότητες επιβίωσης (όπως για παράδειγμα οι νεοσσοί που εξαρτώνται άμεσα από τους γονείς και τη φωλιά τους). Τα περισσότερα ανώτερα θηλαστικά, καθώς και ο άνθρωπος, διατηρούν αφενός κληρονομικά χαρίσματα, αφετέρου όμως το περιβάλλον είναι εκείνο που βασικά αναπτύσσει και διαμορφώνει την προσωπικότητα και τις δεξιότητές τους. Εφόσον παρατηρήσουμε εκ του σύνεγγυς το φαινόμενο διαπιστώνουμε εμπειρικώς πως εκείνοι οι οργανισμοί που διαμορφώνουν τις ικανότητες και την προσωπικότητά τους σταδιακά, υπό την επίδραση του περιβάλλοντος, εξελίσσονται σε επίπεδο ικανοτήτων περισσότερο από εκείνα τα είδη που αρκούνται σε εκείνα που τα γονίδια τους έχουν προσφέρει απλόχερα.

Για να δημιουργήσουμε λοιπόν μια μηχανή με Συναισθηματική Νοημοσύνη πρέπει να επικεντρωθούμε στη δημιουργία μιας αρχιτεκτονικής, ενός σχεδίου, ενός λογισμικού που θα της προσφέρει την ικανότητα να μαθαίνει και να εξελίσσεται βάση της πολύπλευρης εμπειρίας που αποκομίζει τόσο σε επίπεδο γνωσιολογικό, όσο και σε επίπεδο ψυχολογικό/συναισθηματικό (Sloman, Chappel, 2005). Ακόμα πιο παραστατικά, για να δημιουργήσουμε μια μηχανή με Συναισθηματική Νοημοσύνη, πρέπει να της δώσουμε αφενός την υποδομή και την ικανότητα να μαθαίνει, αφετέρου όμως θα πρέπει να ακολουθήσει τις διαδικασίες ανάπτυξης ενός παιδιού. Το θεωρητικό αυτό πλαίσιο το βλέπουμε να αξιοποιείται εμπράκτως σε πολλές περιπτώσεις. Για παράδειγμα στην περίπτωση του Kismet, ενός ρομπότ που αναπτύχθηκε στις αρχές του εικοστού πρώτου αιώνα, η C. Breazeal, κατασκευάστριά του στα πλαίσια της διδακτορικής της διατριβής στο M.I.T., υποστηρίζει πως ο κλάδος της παιδοψυχολογίας και της γνωσιολογίας (σχετικά με την εξέλιξη της ζωής ενός βρέφους) ήταν η θεωρητική βάση πάνω στην οποία ανέπτυξε τις τεχνολογικές της δραστηριότητες (Breazeal, 2000). Ο Kismet μαθαίνει, αλληλεπιδρά με το περιβάλλον του και κοινωνικοποιείται όπως ένα βρέφος: http://www.iwaswondering.org/cynthia_video.html

Το αν πρέπει να είμαστε φιλοσοφικώς, ηθικώς και κοινωνιολογικώς πρόσφοροι να δεχτούμε μια τέτοια αντιμετώπιση απέναντι σε μια μηχανή, ένα ανθρώπινο κατασκεύασμα, ώστε να αρχίσουμε για παράδειγμα να το στέλνουμε σχολείο ή να το στέλνουμε στον ειδικό ψυχολόγο μηχανών θα μπορούσε να αποτελέσει ένα πολύ καλό αντικείμενο μιας εκτεταμένης μελέτης.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Διαβάζοντας διδακτικά εγχειρίδια για το πώς πρέπει να δομείται το σχολείο ώστε να παρέχει στους μαθητές του συναισθηματική παιδεία και εκπαίδευση, ανακαλύπτουμε έναν θησαυρό μεθόδων και νοοτροπιών που θα ήταν αρκετά χρήσιμες ώστε και οι μηχανές να εξελίξουν την Τεχνητή τους Νοημοσύνη στα πλαίσια της Συναισθηματικής: Κάθε πρόγραμμα και κάθε εκπαιδευτικό πλαίσιο που στερείται της συναισθηματικής εκπαίδευσης δεν μπορεί να έχει ελπίδες ότι θα μπορεί να σταθεί χρήσιμο στον μαθητή. Συμπεριφορές, πολιτικές, μέθοδοι μάθησης και επίλυσης προβλημάτων, στρατηγικές και συνήθειες πρέπει να συμπεριλαμβάνονται οπωσδήποτε στους σκοπούς της εκπαίδευσης (Weare, 2004).

Κάθε όμως μορφή συναισθηματικής εκπαίδευσης που θα περνάει στη βάση δεδομένων του λογισμικού της μηχανής θα χαρακτηρίζεται από τον παράγοντα της ατέλειας σε σχέση με τον μαθηματικό τρόπο επεξεργασίας προβλημάτων που είχαμε συνηθίσει στις μηχανές έως σήμερα. Για παράδειγμα μπορεί μία μηχανή να διδαχθεί τρόπους εκδήλωσης του συναισθήματος της αγάπης, όμως παράλληλα να μη μπορεί να εφαρμόσει αυτά τα γνωσιακά δεδομένα που έχει αποκομίσει από τη διδασκαλία καθόσον ενδέχεται να επηρεαστεί από άλλους αστάθμητους ψυχολογικούς παράγοντες, όπως η διαίσθηση του συναισθήματος της απόρριψης από το πρόσωπο στο οποίο πρόκειται να εκδηλώσει την αγάπη της αυτή. Στη συγκεκριμένη περίπτωση το συναίσθημα της αγάπης δεν θα εκφραστεί αποτελεσματικά καθώς θα επηρεαστεί από το συναίσθημα του άγχους της απόρριψης, πράγμα το οποίο ακριβώς συμβαίνει στους ανθρώπους (Matthews et.al, 2004). Οι άνθρωποι κατά κόρον μαθαίνουν να εφαρμόζουν συναισθηματικές στρατηγικές, τις οποίες όμως δεν καταφέρνουν να τις κάνουν πράξη εξαιτίας άλλων αστάθμητων παραγόντων που εδράζονται στον ταλαντευόμενο χώρο των συναισθημάτων.

Από την άλλη πλευρά όμως, ο ταλαντευόμενος αυτός χώρος των συναισθημάτων μπορεί να δράσει καταλυτικώς θετικά υπέρ της σωστής και απρόσκοπτης διεκπεραίωσης μιας εργασίας. Πρόσφατες έρευνες (Wagner et.al, 2002) αποδεικνύουν ότι εκείνος ο παράγοντας που τελικώς κάνει κάποιον να αποδίδει καλύτερα και με το μεγαλύτερο δυνατό ποσοστό θετικού αντίκτυπου είναι το συναίσθημα της χαράς γι αυτό που κάνει. Συμπερασματικώς, τα συναισθήματα δείχνουν ότι αποτελούν καταλύτη τόσο στην επιτυχή αμφίδρομη επικοινωνία, όσο και στις επαγγελματικές και άλλες δραστηριότητες. Μία μηχανή με συναισθήματα, όπως και ο άνθρωπος βέβαια, μπορεί είτε να αποδώσει τα μέγιστα, είτε τα χείριστα. Η μέση οδός και η σταθερή απόδοση που ενισχύονται από την τυπική μαθηματική λογική μέθοδο δείχνουν να εγκαταλείπονται όταν εισέρχεται ο παράγων του συναισθήματος.

Συνάγεται λοιπόν ότι στην ουσία οι επιστήμονες πρέπει να καταβάλλουν τα μέγιστα των προσπαθειών τους ώστε να κάνουν τις μηχανές λιγότερο τέλειες, λιγότερο προβλέψιμες, πιο ανθρώπινες. Καθώς φαίνεται στα μεγαλύτερα προβλήματα που απασχολούν την ανθρωπότητα η τυπική μαθηματική λογική σηκώνει τα χέρια ψηλά, δίνοντας τη θέση της σε μία μέθοδο με περισσότερο ρίσκο, αλλά και περισσότερες πιθανότητες επιτυχούς επίλυσης προβλημάτων.

 Τι είδους ηθικά προβλήματα εγείρονται στην ιδέα μιας μηχανής με συναίσθημα;

Όταν η μηχανή παραμένει αυστηρώς περιορισμένη στα πλαίσια των μαθηματικών κανόνων και του συμβατικού προγραμματισμού, όταν δηλαδή δεν της δίνονται εκείνα τα περιθώρια αυτενέργειας που θα τις προσέφεραν τα συναισθήματα και οι εμπειρίες, είναι δύσκολο να διακρίνουμε ηθικούς προβληματισμούς με επίκεντρο τις καθαυτό μηχανές. Η ηθική ευθύνη βαραίνει αποκλειστικά τον χρήστη τους αλλά και τον παραγωγό τους. Όταν όμως κάνουμε λόγο περί συναισθήματος, εμπειριών και αυτενέργειας, τότε εγείρονται πολλαπλοί ηθικοί προβληματισμοί καθώς οντολογικά η μηχανή ανάγεται σε κάτι το σαφώς ανώτερο σε σύγκριση με την προηγούμενη καθαρά εργαλειακή/χρηστική της κατάσταση. Οι ηθικοί αυτοί προβληματισμοί αφορούν τόσο τον χρήστη και τον παραγωγό, αλλά όσο παράδοξο και αν αυτό μπορεί να ακουστεί, και την ίδια τη μηχανή.

Από το 1942 ο I. Asimov προοικονομώντας ότι κάποια στιγμή στο μέλλον θα βρεθούμε αντιμέτωποι με ηθικά προβλήματα σχετικά με την τεχνολογία και τα προϊόντα της, πρωτοδημοσίευσε του τρεις θεμελιώδεις κανόνες της Ρομποτικής (Asimov, 1942):

1.    Ένα ρομπότ δεν πρέπει με τις ενέργειές του να βλάπτει τους ανθρώπους ή με τις παραλείψεις του να επιτρέψει στους ανθρώπους να βλάψουν τον εαυτό τους.

2.    Ένα ρομπότ πρέπει να υπακούει τις διαταγές που του δίνονται από τον άνθρωπο εκτός και αν οι διαταγές αυτές προσκρούουν στον πρώτο κανόνα.

3.    Το ρομπότ πρέπει να προστατεύει τον εαυτό του τόσο ώστε να μην προσκρούει στον πρώτο και τον δεύτερο κανόνα.

Από τότε πολλές προσθήκες και παραλλαγές έγιναν σε αυτούς τους κανόνες και από τον ίδιο τον Asimov όσο και από επιστήμονες των ανάλογων κλάδων υπό το πρίσμα των διαρκώς αναδυόμενων εξελίξεων της τεχνολογίας. Tο γενικότερο σκεπτικό βάσει του οποίου συντάσσονται αυτοί οι κανόνες είναι ότι και η τεχνολογία και τα προϊόντα της έχουν ηθική υπόσταση:

«Η τεχνολογία όπως την ξέρουμε σήμερα είναι γεμάτη σκοπιμότητες. Περιέχει ιδέες και αξίες. Αν δεν το κατανοήσουμε αυτό καταλήγουμε στην υιοθέτηση της κοινοτοπίας ότι η Τεχνολογία είναι ουδέτερη, σκέψη που μας απομακρύνει από το να προβληματιστούμε σχετικά με ηθικά ζητήματα που αφορούν την ουσία της Τεχνολογίας καθαυτής» (Rowe, 1990).

Ο κίνδυνος, υποστηρίζουν αρκετοί στοχαστές, βρίσκεται μέσα στο σκεπτικό ότι δεν υπάρχει κανένα πρόβλημα σε οποιαδήποτε μορφή της τεχνολογίας και στο ότι δικαιούμαστε να προβληματιζόμαστε ηθικά μόνο και μόνο σχετικά με το πώς χρησιμοποιείται η τεχνολογία από τους ανθρώπους. Το βασικό μήνυμα της τεχνολογίας είναι η διαφορά νοοτροπίας ή τρόπου ζωής που εισάγει στην ανθρώπινη κοινωνία. Ο σιδηρόδρομος για παράδειγμα δεν εισήγαγε την έννοια της μεταφοράς, του τροχού ή του δρόμου στην ανθρώπινη κοινωνία αλλά επεξέτεινε και εξέλιξε προηγούμενες ανθρώπινες λειτουργίες δημιουργώντας έτσι νέα είδη πόλεων, εργασιών και ασχολιών. Αυτό είναι μια πραγματικότητα είτε αν ο σιδηρόδρομος λειτούργησε σε ένα τροπικό είτε σε ένα βόρειο περιβάλλον και είναι ανεξάρτητο από το ενδεχόμενο φορτίο ή περιεχόμενο της αμαξοστοιχίας (McLuhan, 1964). Η τεχνολογία είναι ανόητο να πιστεύουμε ότι είναι ουδέτερη. Η τεχνολογία εμπεριέχει ηθική αξία, το μήνυμά της είναι ο ίδιος της ο εαυτός. Χαρακτηριστικό παράδειγμα τα μέσα επικοινωνίας που καταργούν τα σύνορα, απεμπολούν την ιδέα και το πρότυπο του έθνους-κράτους και δημιουργούν στον άνθρωπο μια νέα νοοτροπία και μια νέα ζωή, εκείνη του παγκόσμιου πολίτη ενός παγκόσμιου χωριού (McLuhan & Fiore, 1967).

Η Συναισθηματική Νοημοσύνη δεν αποτελεί μόνο ένα στοιχείο που θα κάνει τις μηχανές πιο αποτελεσματικές στην εργασία που θα έχουν να διεκπεραιώσουν, αλλά η εκ μέρους τους αποτελεσματική διαχείριση του κόσμου των συναισθημάτων μπορεί να τους προσδώσει κάποια χαρακτηριστικά που κατά κόρον μας θυμίζουν την ανθρώπινη συμπεριφορά. Τέτοια είναι η εγγενής θέληση για ηγετική συμπεριφορά, καθώς και ο παράγων της φιλοδοξίας. Άλλωστε δεν είναι τυχαίο που από πολλούς η Συναισθηματική Νοημοσύνη θεωρείται ως το καταλληλότερο μέσον προς την ανάπτυξη αρχηγικών ικανοτήτων καθώς και κοινωνικής και επαγγελματικής ανέλιξης (Palmer, et.al, 2001). Μέσα σε αυτό το σκεπτικό, στη σύγχρονη εποχή, διατυπώνονται προβληματισμοί που ωθούν τους σχεδιαστές συστημάτων συναισθηματικής τεχνολογίας στο να προβληματιστούν σχετικά με άλλα τρία βασικά ερωτήματα (Reynolds & Picard, 2005):

1.    Πρέπει μία μηχανή που έχει δυνατότητα να αναγνωρίζει και να χρησιμοποιεί συναισθήματα να μπορεί να διαχειρίζεται τα συναισθήματα του χρήστη με τον οποίο επικοινωνεί;

2.    Πρέπει ένα συναισθηματικό τεχνολογικό σύστημα να καταβάλλει προσπάθειες προς την κατεύθυνση αλλαγής της συναισθηματικής κατάστασης ενός χρήστη;

3.    Ένα τεχνολογικό σύστημα που μπορεί πλέον να παρακολουθεί και να καταγράφει συναισθηματικές καταστάσεις του χρήστη που μέχρι πριν ήταν αόρατες/άδηλες, μπορεί να εισβάλλει στην ιδιωτικότητα και σε πάσης φύσεως προσωπικά δεδομένα;

Η απάντηση αυτών των ερωτημάτων εξαρτάται από το ηθικό σύστημα που θα ακολουθήσουν οι αρμόδιοι που θα καθορίσουν το μέλλον της συνύπαρξης ανθρώπων και μηχανών. Κάποιοι μπορεί να θέσουν a priori δεοντολογικές αρχές υποστηρίζοντας για παράδειγμα πως εκείνο που έχει πρώτιστη αξία είναι η ιδιωτική ζωή και η ακεραιότητα της προσωπικότητας ενός ανθρώπου. Σύμφωνα με τέτοια δεοντολογικά κριτήρια, η απάντηση και στα τρία παραπάνω ηθικά ερωτήματα θα είναι αρνητική. Από την άλλη πλευρά, θα υπάρξουν κάποιοι εκπρόσωποι της συνεπειοκρατίας (ωφελιμισμού) που θα υποστηρίξουν πως μία μηχανή έχει το ηθικό δικαίωμα να παρεμβαίνει στην ανθρώπινη ζωή για να προκαλέσει θετικές συνέπειες. Επομένως η απάντηση στα τρία παραπάνω ερωτήματα είναι το «ίσως». Δεν αποκλείεται βέβαια να υπάρξουν και κάποιοι που θα υποστηρίξουν την a priori αρχή ότι το σημαντικότερο σε μια αξιολογική διαβάθμιση είναι η πρόοδος της τεχνολογίας, επομένως πρέπει οι άνθρωποι να παραχωρήσουν κάποια δικαιώματά τους προς χάρη των μηχανών και της τεχνολογικής εξέλιξης. Όλες αυτές οι περιπτώσεις είναι πιθανές και ενδεχόμενες και το μέλλον της τεχνολογίας απρόβλεπτο και γεμάτο προκλήσεις (Heidegger, 1977).

Εν κατακλείδι

Αν κάποτε στο μέλλον, ίσως και μετά από εκατοντάδες χρόνια, μία κατασκευάστρια εταιρεία αποφασίσει να κάνει ένα πείραμα ρίχνοντας έναν αριθμό από μηχανικά σκυλάκια στο εμπόριο μέσω των ειδικών καταστημάτων pet shops και όχι μέσω κάποιας αλυσίδας ηλεκτρονικών συσκευών, ίσως καταφέρει να ξεγελάσει τους καταναλωτές ότι πρόκειται για αληθινό κατοικίδιο. Ο Turing άλλωστε ήταν αισιόδοξος προς αυτή την κατεύθυνση όταν έκανε το διάσημο πλέον πείραμά του πριν από μερικές δεκαετίες (Turing, 1950), μιλώντας μάλιστα για ανθρώπους και όχι για οποιαδήποτε θηλαστικά και γνωσιολογικά απλούστερους οργανισμούς όπως είναι οι σκύλοι.

Είναι δυνατόν να περιμένουμε την εποχή που κάποια μηχανή θα κατανοήσει και θα μεταφράσει ένα υπερρεαλιστικό ποίημα του Νίκου Γκάτσου;

«… Ίδια παντού θα’ναι η ζωή με το σουραύλι των φιδιών στη χώρα των φαντασμάτων

Με το τραγούδι των ληστών στα δάση των αρωμάτων

Με το μαχαίρι ενός καημού στα μάγουλα της ελπίδας

Με το μαράζι μιας Άνοιξης στα φυλλοκάρδια του Γκιώνη …»  (Γκάτσος, 1943)

Παναγιώτης Πέρρος (ΜΔΕ Ηθικής Φιλοσοφίας Παν/μίου Αθηνών)


Παραπομπές:

Sloman A., Chappel J. (2005) “Altricial self-organising information-processing systems” Notes for GC7 Workshop, York, April 2005

Breazeal, C. (2000) “Sociable Machines: Expressive Social Exchange Between Humans and Robots”, Phd thesis – Department of Electrical Engineering and Computer, M.I.T., USA. Περισσότερα για το Kismet project: http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/

Weare, K. (2003) “Developing the Emotionally Literate School” – Paul Chapman Publications, UK

Matthews G., Zeidner M., Roberts R.D. (2004) “Emotional Intelligence: Science and Myth” – p. 315, 316 – Bradford Book – MIT Press, USA

Wagner P., Moseley G., Grant M., Gore J., Owens C, (2002) “Physicians’ Emotional Intelligence and Patient Satisfaction”, Family Medicine Journals November-December 2002 Vol. 34, No. 10 p. 750

Asimov, I. “Runaround” (1942) ανατύπωση σε Asimov, I. (1976) “The Bicentennial Man” αναδημοσίευση σε I. Asimov, P.S. Warrick, and M.H. Greenberg, eds., Machines That Think. Holt. Rinehart, and Wilson, 1983, pp 519- 561

Haugeland, J. (1989) “Artificial Intelligence, The very idea” – MIT Press, USA

Hawkins, J. (2004) “On Intelligence” – “How a new understanding of the brain will lead to creation of trully intelligent machines”. Times Books, NY USA

Heidegger, M. (1977) in “The Question Concerning Technology and Other Essays”, trans. William Lovitt, New York: Harper and Row, 1977.

IBM (1997) “Kasparov vs Deepblue – the Rematch” IBM Research online http://www.research.ibm.com/deepblue/

IBM (2005) “IBM/EPFL Blue Brain Project”, IBM online Press Resources
http://domino.research.ibm.com/comm/pr.nsf/pages/rsc.bluegene_cognitive.html

Rowe, S. J. (1990) “Technology and Ecology” – Home Place, Essays in Ecology, NeWest Books, Edmonton 1990 pp. 63-70

McLuhan, M. (1964) “Understanding Media: : The Extensions of Man” – 2001 reprint: Gingko Press

McLuhan, M, Fiore Q. (1967) “The Medium is the Massage” – 2001 reprint: Routledge, an imprint of Taylor & Francis Books Ltd

Narayanan, S. (2002) “Towards modeling user behavior in human-machine interactions: Effect of Errors and Emotions” University of Southern California – Integrated Media Systems Center Speech Analysis and Interpretation Laboratory: http://sail.usc.edu

Palmer B., Walls M., Burgess Z., Stough C., (2001) “Emotional intelligence and effective leadership” Leadership & Organization Development Journal 22/1 [2001] 5-10

Reynolds C., Picard R.W. (2005), “Evaluation of Affective Computing Systems from a Dimensional Metaethical Position,” 1st Augmented Cognition Conference, In conjunction with the 11th International Conference on Human-Computer Interaction. July 22 – 27, 2005, Las Vegas, Nevada

Γκάτσος, Ν. (1943) “Αμοργός” – έκτη εκτύπωση (2002), εκδόσεις Πατάκη, Αθήνα

σχόλια αναγνωστών
oδηγός χρήσης