Του Τάσου Θωμά
Θεωρείται κάτι σαν γκουρού της Τεχνητής Νοημοσύνης, με ομιλίες ανά τον κόσμο για τις αλλαγές που επιφέρει το ΑΙ στις ζωές μας. Ο Νόα Χαράρι δεν χρειάζεται ιδιαίτερες συστάσεις. Ο Ισραηλινός ιστορικός έχει κατακτήσει ένα μοναδικό προνόμιο: να μιλά για τα πιο δύσκολα και σύνθετα πράγματα, με τον πιο προσιτό και ευνόητο τρόπο. Σε μια χρονική στιγμή όπου το ΑΙ έχει «διεισδύσει» σχεδόν αθόρυβα στις ζωές μας και έρχεται να μεταβάλει ραγδαία τον τρόπο που λειτουργούν οι κοινωνίες μας, ο λόγος στοχαστών όπως ο Χαράρι έχει βαρύνουσα σημασία.
Ο Χαράρι και ο επιστήμονας Ιλιέζι Γιουντκόφσκι είναι οι δύο πιο διάσημοι αναλυτές της Τεχνητής Νοημοσύνης. Ο δεύτερος αποκαλείται “Dr. Doom” λόγω των απαισιόδοξων προβλέψεών του σχετικά με την ανάπτυξη του ΑΙ. Του αποδίδεται η έκφραση «κατά 99% το ΑΙ θα αφανίσει την ανθρωπότητα». Η περίπτωσή του είναι ενδιαφέρουσα και θα ασχοληθούμε μ’ αυτήν σε δεύτερο χρόνο. Σε αντίθεση με τον Γιουντκόφσκι, ο οποίος προσεγγίζει το ζήτημα τεχνολογικά και στρατηγικά, ο Χαράρι εξετάζει το φαινόμενο μέσα από φιλοσοφικό και ιστορικό πρίσμα.
Σε πρόσφατη τοποθέτησή του στο World Economic Forum, ο Χαράρι υποστήριξε πως η ανθρωπότητα βρίσκεται αντιμέτωπη με κάτι θεμελιωδώς καινούργιο: για πρώτη φορά, έχει «πραγματικό νοητικό ανταγωνισμό». «Έχουμε υπάρξει παρασάγκας το πιο έξυπνο είδος εδώ και δεκάδες χιλιάδες χρόνια. Αυτό μας επέτρεψε να εξελιχθούμε από ασήμαντους ανθρωποειδείς της Αφρικής σε κυρίαρχους του κόσμου. Τώρα δημιουργούμε κάτι που μπορεί να μας ανταγωνιστεί», αναφέρει και συμπληρώνει με έμφαση: «Το πιο σημαντικό είναι πως δεν είναι εργαλείο — είναι ένα δρων υποκείμενο».
Όπως εξηγεί ο ιστορικός, πρόκειται για μια κολοσσιαία διαφορά από όλες τις προηγούμενες εφευρέσεις του ανθρώπου. Η Τεχνητή Νοημοσύνη μπορεί να πάρει αποφάσεις ανεξάρτητα από εμάς και να παράξει νέες ιδέες. Μπορεί να μαθαίνει, να επαναπροσδιορίζεται, να δημιουργεί. Η τομή στην ανθρώπινη ιστορία είναι συγκλονιστική. Ακόμη και στα πυρηνικά όπλα χρειάζεται ένας άνθρωπος για να λάβει την απόφαση να επιτεθεί και για να πατήσει το κουμπί. Ένα οπλικό σύστημα ΑΙ όχι μόνο θα διαλέγει πού θα «χτυπήσει», αλλά θα μπορεί να κατασκευάσει και την επόμενη γενιά οπλικών συστημάτων ΑΙ.
Τα παραπάνω δεν αποτελούν γνώμη ή θεώρηση. Είναι γεγονότα. Τα ερωτήματα που προκύπτουν από αυτά είναι βαθιά πολιτικά και ηθικά. Μπορεί η Τεχνητή Νοημοσύνη να είναι εναρμονισμένη με τους στόχους της ανθρωπότητας και να δρα προς όφελός της; Μπορεί -για να το πούμε απλά- να είναι καλή;
Ο ιστορικός, λοιπόν, διακρίνει δύο προβλήματα σε σχέση με τον αντίκτυπο του ΑΙ στην ανθρωπότητα. Δύο μεγάλα εμπόδια. Υπάρχει η θεώρηση πως μπορούμε να «εμφυσήσουμε» στόχους εντός του ΑΙ, ακόμη περισσότερο να διαμορφώσουμε ένα πλαίσιο αρχών και αξιών που θα καθορίζει τη δράση του. Ο Χαράρι διαφωνεί ρητά. Όπως αναφέρει, «αν μπορείς να είσαι σίγουρος για το πώς θα πράξει το ΑΙ, τότε απλά δεν είναι ΑΙ». Έτσι, το πρώτο πρόβλημα είναι πως η Τεχνητή Νοημοσύνη, αν θέλουμε να είναι τέτοια, δεν θα «υπακούει» στις εντολές του κώδικα που την έγραψε. Θα πράττει, με άλλα λόγια, με τρόπους που δεν μπορούμε να περιμένουμε.
Το δεύτερο πρόβλημα έχει να κάνει αποκλειστικά με εμάς. Όπως οι περισσότεροι γνωρίζουν, αυτή τη στιγμή το ΑΙ «μαθαίνει». Είναι σαν ένα μικρό παιδί που ρουφάει σαν «σφουγγάρι», όπως έλεγαν οι παλιοί. Όπως ξέρουν πολύ καλά δάσκαλοι και γονείς, στην εκπαίδευση των παιδιών μετράει περισσότερο το τι κάνεις, παρά τι λες. Έτσι, λέει ο Χαράρι, όσο κι αν γράφουμε «καλοπροαίρετο» κώδικα, το ΑΙ θα αντιγράψει την ανθρώπινη συμπεριφορά, όχι τις εντολές που του δίνουμε. Θα «μάθει» από τις ενέργειες των παγκόσμιων ηγετών, από τη δυναμική που γεννά η ισχύς και η αδυναμία.
Ο προβληματισμός που θέτει ο Ισραηλινός ιστορικός είναι μια βαθιά πρόκληση: Μπορούμε εμείς να δείξουμε στο ΑΙ τι σημαίνει «καλό»; Όχι με γραμμές κώδικα, αλλά με τον βηματισμό μας ως κοινωνίες. Και κυρίως: Μπορούμε να το εφαρμόσουμε πρώτα εμείς;