Η προσδοκία του ταξιδιού

Θα προσπαθήσουμε να ταξιδέψουμε στο κυανού της τέχνης και του πολιτισμού, όπου εκείνο που βαραίνει περισσότερο στις εκτιμήσεις μας είναι ακριβώς η έλλειψη βαρύτητας. Θα προσπαθήσουμε να επικοινωνούμε με το τηλεγραφείο των σκέψεων, με γλώσσα που περνάει από το τρυπητό που αφήνει απ΄έξω τα απόφλουδα...Με την ελπίδα να υπάρξουν ρινίσματα χρόνου που θα ψιθυρίσουμε: Λίγο θέλω ακόμη για ν΄αποσπαστώ από το έδαφος και να παίξω με τις πατούσες μου μιαν άλλου είδους κιθάρα...

Η εντοπισμένη εδώ προσδοκία είναι η αλληλεπίδραση μας με επίγνωση της αδυναμίας, με φορείς αλληλεπίδρασης, αναγκαίους κατά τη Φυσική, σκέψεις, εικόνες, ήχους που προσφέρουν Αυτοί που μας δείχνουν πόσο λανθασμένα, ίσως, συλλάβαμε την δωρεά της ζωής. Έρανος σκέψεων, λοιπόν, ήχων που παράγουν εικόνες που δεν τις βλέπουν τα μάτια, εικόνων που παράγουν ήχους που δεν τους ακούν τα αυτιά, και μοιρασιά της συγκομιδής. Με τιμή στην ατίμητη τιμή αυτών των διαλεχτών της τέχνης και του πολιτισμού που απλόχερα τα προσφέρουν...

Ας ζήσουμε τουλάχιστον την προσδοκία του ταξιδιού, που είναι πιο σημαντική από την πραγματοποίησή του. . .


Τετάρτη 17 Ιανουαρίου 2018



Tις εκτιμήσεις του για την εξέλιξη της Τεχνητής Νοημοσύνης τα επόμενα «πέντε έως 50 χρόνια» μοιράστηκε με τους παρευρισκόμενους στην κατάμεστη αίθουσα τελετών του ΑΠΘ το βράδυ της Τρίτης στη Θεσσαλονίκης ο Κωνσταντίνος Δασκαλάκης, ο νεαρός πολυβραβευμένος καθηγητής της Επιστήμης των Υπολογιστών στο ΜΙΤ, παραδεχόμενος ότι η πραγματικότητα ενδέχεται τελικά να διαψεύσει κάθε πρόβλεψη. Κατά τον Έλληνα καθηγητή, το πιθανότερο είναι ότι σε πέντε χρόνια από σήμερα θα έχουμε έναν προσωπικό γραμματέα με Τεχνητή Νοημοσύνη και αυτο-οδηγούμενα αυτοκίνητα, ενώ σε 15 χρόνια η διεπαφή του ανθρώπινου εγκεφάλου με την τεχνολογία θα γίνει ενδεχομένως πολύ πιο άμεση και το όριο που διαχωρίζει το πού ξεκινά ο άνθρωπος και πού αρχίζει η μηχανή πιο δυσδιάκριτο.

«Μπορεί όλο αυτό να ξεφύγει από τον έλεγχο; Ναι, θα μπορούσε όπως έχει συμβεί και με άλλα πράγματα στο παρελθόν. Το να είμαστε όμως αρνητικοί απέναντι στο ποτάμι που έρχεται κατά πάνω μας δεν είναι εποικοδομητικό, αυτό που πρέπει να σκεφτόμαστε, είναι πώς θα το βάλουμε στη σωστή κατεύθυνση» σημείωσε. Aνέλυσε τρία σενάρια για την εξέλιξη της Τεχνητής Νοημοσύνης στα επόμενα «πέντε έως 50 χρόνια», επισημαίνοντας ότι αυτό που πιθανότατα θα επικρατήσει είναι η μίξη τους.

Με βάση το πρώτο (θετικό) σενάριο, με τίτλο «Wonderland», η αλληλεπίδραση ανθρώπων- μηχανών είναι θετική και ο πρώτος κερδίζει από την ύπαρξη των δεύτερων. Οι μηχανές κάνουν τις χειρωνακτικές εργασίες, ο άνθρωπος έχει περισσότερο ελεύθερο χρόνο ή εκτελεί πνευματικές εργασίες και το ασφαλιστικό σύστημα σώζεται, αφού η έλλειψη νέων ανθρώπων που εργάζονται και καταβάλουν εισφορές αναπληρώνεται από την ύπαρξη των ρομπότ, που δεν χρειάζονται ασφάλιση ή σύνταξη. Προϋπόθεση για να επαληθευτεί αυτό το σενάριο είναι να κατακτήσει η επιστήμη τη γενική νοημοσύνη, δηλαδή η μηχανή να μάθει να χρησιμοποιεί τη διαίσθηση και την εμπειρία που αποκτά από μια νοητική λειτουργία και να τη μεταφέρει σε μια που δεν ξέρει καθόλου (πχ, όταν γνωρίζει να παίζει σκάκι, να μπορεί να χρησιμοποιήσει στρατηγική και στο πόκερ). Βάσει του δεύτερου -αρνητικού- σεναρίου, με τίτλο «Pessiland», η επιστήμη κατακτά την γενική νοημοσύνη, αλλά αυτή δεν είναι προσβάσιμη σε όλους, αλλά μόνο σε εργαστήρια εταιρειών ή κρατών, που τη χρησιμοποιούν για ιμπεριαλιστική επιρροή. «Αν πάμε σε αυτή την κατεύθυνση, το σενάριο είναι προφανώς δυστοπικό» επισήμανε ο καθηγητής. Το τρίτο σενάριο, με τίτλο «Stagnatia», για το οποίο ο καθηγητής Δασκαλάκης επισήμανε ότι «έχει αρκετές πιθανότητες (επαλήθευσης)», είναι αυτό κατά το οποίο ενώ υπάρχουν ολοένα και περισσότερες εφαρμογές ειδικής Τεχνητής Νοημοσύνης (π.χ. αναγνώριση εικόνας και ήχου ή μετάφραση), η επιστήμη δεν καταφέρνει να κάνει το άλμα στη γενική τεχνητή νοημοσύνη και επικρατεί σχετική στασιμότητα.

Όταν ο αλγόριθμος «βλέπει» μια χελώνα σαν ...καραμπίνα... Κατά τον  Δασκαλάκη, σήμερα ένας από τους βασικούς προβληματισμούς της ανθρωπότητας είναι η αξιοπιστία της τεχνολογίας. «Υπάρχουν μεγάλα θέματα αξιοπιστίας και ένας από τους λόγους είναι ότι όταν τα δεδομένα με τα οποία τροφοδοτείς τον αλγόριθμο είναι ελλιπή ή μη αντιπροσωπευτικά, μπορεί να οδηγήσουν σε λανθασμένες ή ελλιπείς νοητικές λειτουργίες. Για παράδειγμα, έγινε γνωστό ότι ένα αυτοκίνητο Tesla έπεσε σε φορτηγό σταματημένο στην αριστερή λωρίδα. Γιατί συνέβη αυτό; Ίσως γιατί ποτέ στα δεδομένα που εισήχθησαν για να προπονηθεί ο αλγόριθμος στην αναγνώριση εικόνας δεν υπήρχε αυτοκίνητο σταματημένο στην αριστερή λωρίδα του δρόμου, επειδή αυτό σπάνια συμβαίνει. Ο αλγόριθμος θα επεξεργαστεί τα ελλιπή δεδομένα που τού δώσαμε και θα ενσωματώσει την έλλειψη, σημείωσε, ενώ πρόσθεσε ότι φοιτητές του ΜΙΤ επιτέθηκαν στον καλύτερο αλγόριθμο αναγνώρισης εικόνας και τον έκαναν να «πιστέψει» ότι μια τρισδιάστατη χελώνα τυπωμένη σε εκτυπωτή 3D ήταν ...καραμπίνα. «Δεν έχουμε τόσο αξιόπιστη Τεχνητή Νοημοσύνη σήμερα. Προσπαθούμε να φτιάξουμε τρόπους προστασίας αλγορίθμων από τέτοιου είδους επιθέσεις» επισήμανε.

Ποιος αποφασίζει ποιος θα χάσει τη ζωή του; Ένα άλλο θέμα, πρόσθεσε, έχει να κάνει με ηθικά διλήμματα. «Ένα κλασικό πρόβλημα είναι το εξής. Σκεφτείτε ότι φτιάχνουμε αυτοοδηγούμενα αυτοκίνητα που κινούνται μαζικά στους δρόμους. Αναπόφευκτα κάποιο από αυτά θα βρει τον εαυτό του σε φάση αναγνώρισης του γεγονότος ότι σε μερικά δευτερόλεπτα θα γίνει ένα αναπόφευκτο ατύχημα με εμπλοκή πεζών. Ο αλγόριθμος που οδηγεί καταλαβαίνει τότε ότι έχει δύο δυνατότητες: να πάει ευθεία και να σκοτώσει τους πεζούς ή να πάει αριστερά, να χτυπήσει στο στηθαίο και να σκοτώσει τους επιβαίνοντες. Δεν μπορεί να σώσει και τους δύο. Πώς θα πάρει την απόφαση; Ο αλγόριθμος μπορεί επίσης να καταλαβαίνει ότι οι πεζοί είναι ένα παιδάκι 8 χρονών, ο μπαμπάς του, 41, και ο σκύλος τους και οι επιβαίνοντες μια έγκυος γυναίκα 30 ετών και το αγοράκι της. Πώς εγώ που σχεδιάζω τον αλγόριθμο θα λάβω την απόφαση για το ποιος θα ζήσει»;

Ο ρατσιστής αλγόριθμος... Κατά τον Καθηγητή Δασκαλάκη, η Τεχνητή Νοημοσύνη είναι σαν ένα μωρό. Το μωρό έρχεται στον κόσμο με γενετικά χαρακτηριστικά, αλλά εν πολλοίς είναι tabula rasa. Οι γονείς τού δίνουν δεδομένα και στόχους. Αν τα δεδομένα που λαμβάνει το μωρό περιέχουν ρατσιστικές απόψεις ή προκαταλήψεις ή θέσεις, αυτές τις θέσεις θα τις υιοθετήσει. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη, η οποία μαθαίνει από την αλληλεπίδραση με τους ανθρώπους. Χαρακτηριστικό είναι το παράδειγμα ενός chat bot (σ.σ. ρομπότ που κάνει διάλογο μέσω κειμένου ή ήχου). Μια ομάδα χρηστών του επιτέθηκε, παρέχοντάς του ρατσιστικό και συνωμοσιολογικό περιεχόμενο. «Μέσα σε 17 ώρες έγινε τρελός ρατσιστής και συνωμοσιολόγος» σημείωσε ο καθηγητής. 

Τίθενται επίσης ζητήματα αμεροληψίας, γιατί αν τα δεδομένα είναι ελλιπή, η τεχνητή νοημοσύνη θα υιοθετήσει στατιστικές που δεν είναι αντιπροσωπευτικές. Κι εδώ για παράδειγμα το ερώτημα είναι: έστω πως φτιάχνω τεχνολογία που αποφαίνεται αν κάποιος είναι άξιος λήψης δανείου, αλλά έχω ελλιπή στοιχεία για μια πληθυσμιακή ομάδα. Τι γίνεται τότε; «Πρέπει να προστατέψουμε την τεχνητή νοημοσύνη από το να κάνει τέτοια στατιστικά λάθη, αλλά το πρόβλημα είναι ότι η στατιστική είναι δύσκολη επιστήμη» σημείωσε.

Με τι προοδευτικά ασχολούμαστε για το παρελθόν...  



Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου