Ίσως αυτός να είναι και ο λόγος που ανησυχεί τόσο βαθιά σήμερα για την άνοδο ενός «αμφισβητία» αυτής της μαεστρίας με την οποία λέμε και χτίζουμε τις ιστορίες που μας ενώνουν. Και αυτός ο αμφισβητίας δεν είναι άλλος από τον ΑΙ, δηλαδή την τεχνητή νοημοσύνη.
«Αυτή είναι η πρώτη τεχνολογία στην ιστορία του κόσμου που δημιουργεί ιστορίες», λέει ο Χαράρι στον δημοσιογράφο της Teleghraph, Χάρι Κέτβιλ. Για αυτόν τον διανοητή, τίποτα άλλο δεν θα μπορούσε να θεωρηθεί ως μεγαλύτερη επίδειξη ισχύος απ' αυτό, καθώς κατά την άποψή του, η συλλογική μας πίστη στις «ιστορίες» - π.χ. της θρησκευτικής πίστης, των οικονομικών ή του έθνους - έχει ωθήσει την ανθρωπότητα στο να κυριαρχήσει στη Γη.
Για παράδειγμα τα χρήματα είναι αυτά που μάς επέτρεψαν να ευδοκιμήσουμε, αλλά τί αξία έχει ένα πεντάευρο στην τσέπη μας αν ο καταστηματάρχης το απορρίψει ως ένα απλό κομμάτι μπλε χαρτιού;
Τώρα η τεχνητή νοημοσύνη δείχνει ότι μπορεί κι αυτή να υφαίνει τέτοιες δυνατές ιστορίες, δείχνοντας ότι οι δυνατότητες της τεχνολογίας τόσο για το καλό όσο και για το κακό (δυνατότητες που κάποτε θεωρούνταν μακρινές και θεωρητικές) είναι πλέον άμεσες και πραγματικές. Αυτός είναι ο λόγος για τον οποίο ο Χαράρι πρόσθεσε το όνομά του σε μια επιστολή τον περασμένο μήνα, υπογεγραμμένη από χιλιάδες ειδικούς, ζητώντας μορατόριουμ στην έρευνα σε λογισμικά όπως το ChatGPT, ένα μοντέλο τεχνητής νοημοσύνης που μπορεί, «συζητώντας» με ανθρώπους, να γεννήσει ένα δημιουργικό κείμενο.
Υπάρχουν και άλλα προγράμματα που μπορούν να κάνουν το ίδιο, αλλά αυτή τη φορά και με εικόνες και ήχους. «Η νέα γενιά τεχνητής νοημοσύνης δεν κυκλοφορεί απλώς το περιεχόμενο που παράγουν οι άνθρωποι. Μπορεί να παράγει το περιεχόμενο από μόνη της», λέει ο ιστορικός στη βρετανική εφημερίδα. «Προσπαθήστε να φανταστείτε τί σημαίνει να ζεις σε έναν κόσμο όπου τα περισσότερα κείμενα, οι περισσότερες μουσικές και στη συνέχεια οι εικόνες και οι τηλεοπτικές σειρές θα δημιουργούνται από μια μη ανθρώπινη νοημοσύνη. Απλώς δεν μπορούμε ακόμα να αντιληφθούμε τί σημαίνει αυτό. Ποιές θα μπορούσαν να είναι οι συνέπειες της κατάληψης του πολιτισμού από την τεχνητή νοημοσύνη;».
ΜΙΑ ΧΕΙΡΑΓΩΓΗΣΗ ΠΟΥ ΔΕΝ ΘΑ ΕΧΟΥΜΕ ΞΑΝΑΔΕΙ
Ήδη υπάρχουν μία σειρά από παραδείγματα. Ένα γερμανικό περιοδικό επικρίθηκε επειδή δημοσίευσε μια «αποκλειστική συνέντευξη» με τον Μάικλ Σουμάχερ, όταν στην πραγματικότητα το κείμενο δημιουργήθηκε από AI που μιμήθηκε τον μεγάλο οδηγό, ο οποίος ως γνωστόν αντιμετωπίζει σοβαρά θέματα υγείας. Ο Χαράρι πιστεύει ότι η τεχνητή νοημοσύνη θα προχωρήσει σύντομα πολύ παραπέρα, παραπέμποντας σε έναν κόσμο στον οποίο «θα μπαίνεις στο διαδίκτυο και θα διαφωνείς με κάποιον για κάποιο πολιτικό ζήτημα, ίσως και να λαμβάνεις ένα βίντεο με "αυτόν" να μιλάει, αλλά στην πραγματικότητα δε θα υπάρχει κανένας άνθρωπος πίσω από αυτό. Θα είναι όλο δημιούργημα της τεχνητής νοημοσύνης».
Και ταυτόχρονα, σε αυτήν τη δυστοπία που περιγράφει, σκέφτεται ότι αυτοί που θα μας επηρεάζουν δεν θα είναι κάποιοι ανώνυμοι και ψεύτικοι τύποι του ίντερνετ, αλλά ψηφιακά αντίγραφα των δικών μας ανθρώπων! Από τη στιγμή που επηρεαζόμαστε πάρα πολύ από τα κοντινά μας πρόσωπα, τότε αυτός που θα μας μιλάει μπορεί να φαίνεται ότι είναι ένας φίλος ή ένας συγγενής, ο οποίος θα προσπαθεί να μας πείσει για την αξία ενός προϊόντος ή για τη θέση του σχετικά με τα εμβόλια ή τη μετανάστευση.
Θα ήταν, συνεχίζει ο Χαράρι, μια δύναμη χειραγώγησης του δημόσιου λόγου που δε θα είχε προηγούμενο στην παγκόσμια ιστορία.
«Όλο αυτό είναι μια απειλή περισσότερο για τις δημοκρατίες από ό,τι για τα αυταρχικά καθεστώτα, επειδή οι δημοκρατίες βασίζονται στη δημόσια συζήτηση», λέει ο Χαράρι. «Στην πραγματικότητα η δημοκρατία είναι μία συνομιλία, άνθρωποι που μιλούν μεταξύ τους. Αν αυτήν τη συζήτηση την αναλάβει η τεχνητή νοημοσύνη, τότε η δημοκρατία έχει τελειώσει».
Αλλά τί επίδραση θα μπορούσε να έχει η τεχνολογία εάν εξαπολυόταν με κακό σκοπό από ολοκληρωτικά καθεστώτα; Ένα σύστημα τεχνητής νοημοσύνης της Google, για παράδειγμα, έμαθε μόνο του να μιλά ινδικά χωρίς να έχει εκπαιδευτεί από κανέναν. Τί συνέπειες θα είχε αυτή η τεχνολογία στα χέρια μία δικτατορίας;
«Το ναζιστικό καθεστώς βασίστηκε σε τεχνολογίες όπως τα τρένα, ο ηλεκτρισμός και το ραδιόφωνο. Δεν είχαν εργαλεία, όπως η τεχνητή νοημοσύνη», σημειώνει ο Χαράρι. «Ένα νέο καθεστώς στον 21ο αιώνα θα έχει πολύ πιο ισχυρά εργαλεία. Έτσι, οι συνέπειες θα μπορούσαν να είναι και πολύ πιο καταστροφικές. Δεν ξέρω αν η ανθρωπότητα θα μπορούσε να επιβιώσει μέσα σε κάτι τέτοιο».
Ήδη υπάρχουν μία σειρά από παραδείγματα. Ένα γερμανικό περιοδικό επικρίθηκε επειδή δημοσίευσε μια «αποκλειστική συνέντευξη» με τον Μάικλ Σουμάχερ, όταν στην πραγματικότητα το κείμενο δημιουργήθηκε από AI που μιμήθηκε τον μεγάλο οδηγό, ο οποίος ως γνωστόν αντιμετωπίζει σοβαρά θέματα υγείας. Ο Χαράρι πιστεύει ότι η τεχνητή νοημοσύνη θα προχωρήσει σύντομα πολύ παραπέρα, παραπέμποντας σε έναν κόσμο στον οποίο «θα μπαίνεις στο διαδίκτυο και θα διαφωνείς με κάποιον για κάποιο πολιτικό ζήτημα, ίσως και να λαμβάνεις ένα βίντεο με "αυτόν" να μιλάει, αλλά στην πραγματικότητα δε θα υπάρχει κανένας άνθρωπος πίσω από αυτό. Θα είναι όλο δημιούργημα της τεχνητής νοημοσύνης».
Και ταυτόχρονα, σε αυτήν τη δυστοπία που περιγράφει, σκέφτεται ότι αυτοί που θα μας επηρεάζουν δεν θα είναι κάποιοι ανώνυμοι και ψεύτικοι τύποι του ίντερνετ, αλλά ψηφιακά αντίγραφα των δικών μας ανθρώπων! Από τη στιγμή που επηρεαζόμαστε πάρα πολύ από τα κοντινά μας πρόσωπα, τότε αυτός που θα μας μιλάει μπορεί να φαίνεται ότι είναι ένας φίλος ή ένας συγγενής, ο οποίος θα προσπαθεί να μας πείσει για την αξία ενός προϊόντος ή για τη θέση του σχετικά με τα εμβόλια ή τη μετανάστευση.
Θα ήταν, συνεχίζει ο Χαράρι, μια δύναμη χειραγώγησης του δημόσιου λόγου που δε θα είχε προηγούμενο στην παγκόσμια ιστορία.
«Όλο αυτό είναι μια απειλή περισσότερο για τις δημοκρατίες από ό,τι για τα αυταρχικά καθεστώτα, επειδή οι δημοκρατίες βασίζονται στη δημόσια συζήτηση», λέει ο Χαράρι. «Στην πραγματικότητα η δημοκρατία είναι μία συνομιλία, άνθρωποι που μιλούν μεταξύ τους. Αν αυτήν τη συζήτηση την αναλάβει η τεχνητή νοημοσύνη, τότε η δημοκρατία έχει τελειώσει».
Αλλά τί επίδραση θα μπορούσε να έχει η τεχνολογία εάν εξαπολυόταν με κακό σκοπό από ολοκληρωτικά καθεστώτα; Ένα σύστημα τεχνητής νοημοσύνης της Google, για παράδειγμα, έμαθε μόνο του να μιλά ινδικά χωρίς να έχει εκπαιδευτεί από κανέναν. Τί συνέπειες θα είχε αυτή η τεχνολογία στα χέρια μία δικτατορίας;
«Το ναζιστικό καθεστώς βασίστηκε σε τεχνολογίες όπως τα τρένα, ο ηλεκτρισμός και το ραδιόφωνο. Δεν είχαν εργαλεία, όπως η τεχνητή νοημοσύνη», σημειώνει ο Χαράρι. «Ένα νέο καθεστώς στον 21ο αιώνα θα έχει πολύ πιο ισχυρά εργαλεία. Έτσι, οι συνέπειες θα μπορούσαν να είναι και πολύ πιο καταστροφικές. Δεν ξέρω αν η ανθρωπότητα θα μπορούσε να επιβιώσει μέσα σε κάτι τέτοιο».
ΣΤΡΑΤΙΕΣ ΑΝΕΡΓΩΝ ΠΡΟ ΤΩΝ ΠΥΛΩΝ
Υποστηρίζει επίσης ότι ακόμα και οι πιο προφανείς συνέπειες θα μπορούσαν να εξελιχθούν σε επαναστατικές. «Ένας άλλος κίνδυνος είναι ότι πολλοί άνθρωποι μπορεί να βρεθούν χωρίς δουλειά, όχι μόνο προσωρινά, αλλά χωρίς τις βασικές δεξιότητες για τη μελλοντική αγορά εργασίας. Ίσως φτάσουμε σε ένα σημείο όπου το οικονομικό σύστημα βλέπει εκατομμύρια ανθρώπους ως εντελώς άχρηστους. Αυτό θα έχει τρομερές ψυχολογικές και πολιτικές προεκτάσεις».
Είναι η αυτονομία της τεχνητής νοημοσύνης που το κάνει τόσο διαφορετικό. Ωστόσο, ακόμη και ο Χαράρι, ο οποίος έφτιαξε το όνομά του εξηγώντας με απλό τρόπο πολύ σύνθετα θέματα, φαίνεται απογοητευμένος από την αδυναμία του να μας κάνει να το δούμε κι εμείς αυτό το θέμα τόσο βαθιά όσο εκείνος.
«Πρέπει να καταλάβουμε ότι η τεχνητή νοημοσύνη είναι η πρώτη τεχνολογία στην ιστορία που μπορεί να πάρει αποφάσεις από μόνη της. Μπορεί να πάρει αποφάσεις για δική της χρήση. Μπορεί επίσης να πάρει αποφάσεις για εσάς και για εμένα. Δεν πρόκειται για μελλοντική πρόβλεψη. Αυτό συμβαίνει ήδη».
Για να καταλάβουμε τί εννοεί αναφέρεται και στις περιπτώσεις όπου έχει χρησιμοποιηθεί λογισμικό τεχνητής νοημοσύνης, π.χ. όπως συνέβη από μία τράπεζα για να αποφασιστεί αν κάποιος πρέπει να πάρει ένα δάνειο ή όχι, καθώς σε περιπτώσεις όπου μέσω AI είχε αποφασιστεί ποιοί κρατούμενοι θα έπρεπε να αποφυλακιστούν υπό όρους.
Υποστηρίζει επίσης ότι ακόμα και οι πιο προφανείς συνέπειες θα μπορούσαν να εξελιχθούν σε επαναστατικές. «Ένας άλλος κίνδυνος είναι ότι πολλοί άνθρωποι μπορεί να βρεθούν χωρίς δουλειά, όχι μόνο προσωρινά, αλλά χωρίς τις βασικές δεξιότητες για τη μελλοντική αγορά εργασίας. Ίσως φτάσουμε σε ένα σημείο όπου το οικονομικό σύστημα βλέπει εκατομμύρια ανθρώπους ως εντελώς άχρηστους. Αυτό θα έχει τρομερές ψυχολογικές και πολιτικές προεκτάσεις».
Είναι η αυτονομία της τεχνητής νοημοσύνης που το κάνει τόσο διαφορετικό. Ωστόσο, ακόμη και ο Χαράρι, ο οποίος έφτιαξε το όνομά του εξηγώντας με απλό τρόπο πολύ σύνθετα θέματα, φαίνεται απογοητευμένος από την αδυναμία του να μας κάνει να το δούμε κι εμείς αυτό το θέμα τόσο βαθιά όσο εκείνος.
«Πρέπει να καταλάβουμε ότι η τεχνητή νοημοσύνη είναι η πρώτη τεχνολογία στην ιστορία που μπορεί να πάρει αποφάσεις από μόνη της. Μπορεί να πάρει αποφάσεις για δική της χρήση. Μπορεί επίσης να πάρει αποφάσεις για εσάς και για εμένα. Δεν πρόκειται για μελλοντική πρόβλεψη. Αυτό συμβαίνει ήδη».
Για να καταλάβουμε τί εννοεί αναφέρεται και στις περιπτώσεις όπου έχει χρησιμοποιηθεί λογισμικό τεχνητής νοημοσύνης, π.χ. όπως συνέβη από μία τράπεζα για να αποφασιστεί αν κάποιος πρέπει να πάρει ένα δάνειο ή όχι, καθώς σε περιπτώσεις όπου μέσω AI είχε αποφασιστεί ποιοί κρατούμενοι θα έπρεπε να αποφυλακιστούν υπό όρους.
Η ΑΝΑΓΚΗ ΓΙΑ ΚΑΛΥΤΕΡΟ ΕΛΕΓΧΟ
«Όλα αυτά σημαίνουν ότι η εξουσία απομακρύνεται από εμάς για πρώτη φορά στην ιστορία. Επινοήσαμε κάτι που μας αφαιρεί την εξουσία. Και συμβαίνει τόσο γρήγορα που οι περισσότεροι άνθρωποι δεν καταλαβαίνουν καν τί συμβαίνει. Πρέπει να διασφαλίσουμε ότι η τεχνητή νοημοσύνη λαμβάνει σωστές αποφάσεις για τη ζωή μας. Και αυτό είναι ένα πρόβλημα απ’ το οποίο απέχουμε αρκετά από το να λύσουμε».
Όπως και πολλοί άλλοι, έτσι και ο Χαράρι υποστηρίζει ότι θα πρέπει να δημιουργηθούν ασφαλιστικές δικλείδες για να αποφευχθεί το επερχόμενο χάος. Να μπουν κανόνες που θα αποτρέψουν την καταστροφή και θα μιμούνται τις ιατρικές διασφαλίσεις.
«Μια φαρμακευτική εταιρεία δεν μπορεί να κυκλοφορήσει ένα νέο φάρμακο στην αγορά χωρίς προηγουμένως να περάσει από μια μακρά ρυθμιστική διαδικασία. Έτσι, είναι πραγματικά παράξενο και τρομακτικό το γεγονός ότι οι εταιρείες μπορούν απλώς να απελευθερώσουν εξαιρετικά ισχυρά εργαλεία τεχνητής νοημοσύνης στη δημόσια σφαίρα χωρίς να περάσουν από παρόμοια μέτρα ασφαλείας».
Τέτοια μέτρα θα πρέπει να επιβληθούν από την κυβέρνηση, επιμένει. Το να περιμένουμε από τη βιομηχανία τεχνολογίας να αυτορυθμιστεί είναι εντελώς παράλογο. «Με όλο τον σεβασμό στον Έλον Μασκ και τον Ζούκερμπεργκ ή τους άλλους επικεφαλής μεγάλων εταιρειών τεχνολογίας, πρέπει να πω ότι δεν εκλέγονται από κανέναν, δεν εκπροσωπούν κανέναν - εκτός από τους μετόχους τους - και δεν έχουμε κανέναν λόγο για να τους εμπιστευόμαστε».
Λαμβάνοντας υπόψη όλα αυτά, δεν πρέπει να μας κάνει εντύπωση το γεγονός ότι ο Χαράρι φυλά το κινητό του σε ένα συρτάρι, απενεργοποιημένο. Το αποκαλεί «smartphone επείγουσας ανάγκης» και το χρησιμοποιεί κυρίως όταν ταξιδεύει εκτός Ισραήλ, για διάφορους πρακτικούς λόγους, όπως το να μπορεί να καλεί ταξί. Ίσως την ίδια προσοχή να πρέπει να δείξουμε και εμείς όσον αφορά στην τεχνητή νοημοσύνη, κάτι που προσφάτως με το ChatGPT δεν το πράξαμε. Αλλά - ευτυχώς ή δυστυχώς - θα έχουμε πολλές ευκαιρίες ακόμη για να φερθούμε ωριμότερα.
0 comments
Δημοσίευση σχολίου
Παρακαλώ, τα σχόλιά σας να μην περιέχουν βωμολοχίες, να μην είναι γραμμένα σε greeklish και με κεφαλαία γράμματα και να μην περιέχουν οποιοδήποτε διαφημιστικό περιεχόμενο. Σε διαφορετική περίπτωση δε θα δημοσιεύονται. Για οποιαδήποτε απορία ανατρέξτε στους όρους χρήσης του ιστολογίου.