κίνδυνος αι 7 11
Η τεχνητή νοημοσύνη δεν είναι πιθανό να υποδουλώσει την ανθρωπότητα, αλλά θα μπορούσε να καταλάβει πολλές πτυχές της ζωής μας. elenabs/iStock μέσω Getty Images

Η άνοδος του ChatGPT και παρόμοιων συστημάτων τεχνητής νοημοσύνης συνοδεύτηκε από μια απότομη αύξηση του άγχους για την τεχνητή νοημοσύνη. Τους τελευταίους μήνες, στελέχη και ερευνητές ασφάλειας τεχνητής νοημοσύνης προσφέρουν προβλέψεις, που ονομάζονται "P(doom)», σχετικά με την πιθανότητα η τεχνητή νοημοσύνη να επιφέρει μια μεγάλης κλίμακας καταστροφή.

Οι ανησυχίες κορυφώθηκαν τον Μάιο του 2023 όταν ο μη κερδοσκοπικός οργανισμός έρευνας και υπεράσπισης Centre for AI Safety κυκλοφόρησε δήλωση μιας πρότασης: «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος». Η δήλωση υπογράφηκε από πολλούς βασικούς παράγοντες του χώρου, συμπεριλαμβανομένων των ηγετών των OpenAI, Google και Anthropic, καθώς και δύο από τους λεγόμενους «νονούς» της AI: Τζέφρι Χίντιν και Γιουσούα Μπέντζιο.

Ίσως ρωτήσετε πώς υποτίθεται ότι παίζουν τέτοιοι υπαρξιστικοί φόβοι. Ένα διάσημο σενάριο είναι το «μεγιστοποιητής συνδετήρωνΠείραμα σκέψης που διατυπώθηκε από τον φιλόσοφο της Οξφόρδης Νικ Μπόστρομ. Η ιδέα είναι ότι ένα σύστημα τεχνητής νοημοσύνης που έχει ως αποστολή την παραγωγή όσο το δυνατόν περισσότερων συνδετήρων μπορεί να καταβάλει ασυνήθιστα μήκη για την εύρεση πρώτων υλών, όπως η καταστροφή εργοστασίων και η πρόκληση τροχαίων ατυχημάτων.

A παραλλαγή με μικρότερη ένταση πόρων έχει μια τεχνητή νοημοσύνη επιφορτισμένη με την προμήθεια μιας κράτησης σε ένα δημοφιλές εστιατόριο που κλείνει τα δίκτυα κινητής τηλεφωνίας και τα φανάρια, προκειμένου να αποτρέψει άλλους πελάτες από το να πάρουν τραπέζι.


εσωτερικά εγγραφείτε γραφικό


Προμήθειες γραφείου ή δείπνο, η βασική ιδέα είναι η ίδια: η τεχνητή νοημοσύνη γίνεται γρήγορα μια εξωγήινη νοημοσύνη, καλή στην επίτευξη στόχων αλλά επικίνδυνη γιατί δεν θα ευθυγραμμιστεί απαραίτητα με τις ηθικές αξίες των δημιουργών της. Και, στην πιο ακραία εκδοχή του, αυτό το επιχείρημα μεταμορφώνεται σε ξεκάθαρες ανησυχίες για τα AI υποδουλώνοντας ή καταστρέφοντας το ανθρώπινο γένος.

Μια παραλλαγή του σεναρίου αποκάλυψης της τεχνητής νοημοσύνης είναι μια παραλλαγή της τεχνητής νοημοσύνης που δημιουργεί συνδετήρες χαρτιού.

 

Πραγματικό κακό

Τα τελευταία χρόνια, οι συνάδελφοί μου και εγώ UMass Boston's Applied Ethics Center έχουν μελετήσει τον αντίκτυπο της ενασχόλησης με την τεχνητή νοημοσύνη στην κατανόηση των ανθρώπων για τον εαυτό τους και πιστεύω ότι αυτές οι καταστροφικές ανησυχίες είναι υπερβολικό και λανθασμένο.

Ναι, η ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικά βίντεο και ήχο με βαθύ ψεύτικο είναι τρομακτική και μπορεί να γίνει κατάχρηση από άτομα με κακή πρόθεση. Στην πραγματικότητα, αυτό συμβαίνει ήδη: Ρώσοι πράκτορες πιθανότατα προσπάθησαν να φέρουν σε δύσκολη θέση τον κριτικό του Κρεμλίνου Μπιλ Μπράουντερ παγιδεύοντάς τον σε μια συνομιλία με ένα avatar για τον πρώην πρόεδρο της Ουκρανίας Πέτρο Ποροσένκο. Οι εγκληματίες του κυβερνοχώρου έχουν χρησιμοποιήσει κλωνοποίηση φωνής AI για μια ποικιλία εγκλημάτων – από ληστείες υψηλής τεχνολογίας προς την συνηθισμένες απάτες.

Συστήματα λήψης αποφάσεων AI που να προσφέρει έγκριση δανείου και συστάσεις πρόσληψης ενέχουν τον κίνδυνο αλγοριθμικής μεροληψίας, καθώς τα δεδομένα εκπαίδευσης και τα μοντέλα αποφάσεων στα οποία εκτελούνται αντανακλούν μακροχρόνιες κοινωνικές προκαταλήψεις.

Αυτά είναι μεγάλα προβλήματα και απαιτούν την προσοχή των υπευθύνων χάραξης πολιτικής. Αλλά υπάρχουν εδώ και λίγο καιρό, και δεν είναι σχεδόν καταιγιστικοί.

Όχι στο ίδιο πρωτάθλημα

Η δήλωση του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης συνέδεσε την τεχνητή νοημοσύνη με τις πανδημίες και τα πυρηνικά όπλα ως σημαντικό κίνδυνο για τον πολιτισμό. Υπάρχουν προβλήματα με αυτή τη σύγκριση. Ο COVID-19 είχε ως αποτέλεσμα σχεδόν 7 εκατομμύρια θάνατοι παγκοσμίως, έφερε σε α μαζική και συνεχιζόμενη κρίση ψυχικής υγείας και δημιουργήθηκε οικονομικές προκλήσεις, συμπεριλαμβανομένων των χρόνιων ελλείψεων της εφοδιαστικής αλυσίδας και του αφανούς πληθωρισμού.

Πιθανότατα σκοτώθηκαν πυρηνικά όπλα Περισσότερο από τους ανθρώπους 200,000 στη Χιροσίμα και στο Ναγκασάκι το 1945, κέρδισε πολλές περισσότερες ζωές από καρκίνο τα επόμενα χρόνια, προκάλεσε δεκαετίες βαθιάς ανησυχίας κατά τη διάρκεια του Ψυχρού Πολέμου και έφερε τον κόσμο στο χείλος του αφανισμού κατά την κρίση των κουβανικών πυραύλων το 1962. άλλαξε τους υπολογισμούς των εθνικών ηγετών για το πώς να απαντήσουμε στη διεθνή επιθετικότητα, όπως αυτή τη στιγμή παίζει με τη ρωσική εισβολή στην Ουκρανία.

Η τεχνητή νοημοσύνη δεν είναι σχεδόν καθόλου κοντά στο να αποκτήσει τη δυνατότητα να κάνει αυτού του είδους τη ζημιά. Το σενάριο του συνδετήρα και άλλα παρόμοια είναι επιστημονικής φαντασίας. Οι υπάρχουσες εφαρμογές τεχνητής νοημοσύνης εκτελούν συγκεκριμένες εργασίες αντί να κάνουν ευρείες κρίσεις. Η τεχνολογία είναι μακριά από το να μπορείς να αποφασίσεις και μετά να σχεδιάσεις οι στόχοι και οι δευτερεύοντες στόχοι που είναι απαραίτητοι για το κλείσιμο της κυκλοφορίας για να σας πάρουν μια θέση σε ένα εστιατόριο ή να ανατινάξουν ένα εργοστάσιο αυτοκινήτων για να ικανοποιήσετε τη φαγούρα σας για συνδετήρες.

Όχι μόνο η τεχνολογία δεν έχει την πολύπλοκη ικανότητα για πολυεπίπεδη κρίση που εμπλέκεται σε αυτά τα σενάρια, αλλά δεν έχει επίσης αυτόνομη πρόσβαση σε επαρκή μέρη της κρίσιμης υποδομής μας για να αρχίσει να προκαλεί τέτοιου είδους ζημιά.

Τι σημαίνει να είσαι άνθρωπος

Στην πραγματικότητα, υπάρχει ένας υπαρξιακός κίνδυνος εγγενής στη χρήση της τεχνητής νοημοσύνης, αλλά αυτός ο κίνδυνος είναι υπαρξιακός με τη φιλοσοφική και όχι με την αποκαλυπτική έννοια. Η τεχνητή νοημοσύνη στην τρέχουσα μορφή της μπορεί να αλλάξει τον τρόπο που οι άνθρωποι βλέπουν τον εαυτό τους. Μπορεί να υποβαθμίσει τις ικανότητες και τις εμπειρίες που οι άνθρωποι θεωρούν απαραίτητες για να είναι άνθρωποι.

Για παράδειγμα, οι άνθρωποι είναι πλάσματα που κάνουν κρίση. Οι άνθρωποι σταθμίζουν ορθολογικά τις λεπτομέρειες και κάνουν καθημερινές κρίσεις στη δουλειά και στον ελεύθερο χρόνο τους για το ποιον να προσλάβουν, ποιος πρέπει να πάρει δάνειο, τι να παρακολουθήσει και ούτω καθεξής. Αλλά όλο και περισσότερες από αυτές τις κρίσεις είναι είναι αυτοματοποιημένο και προσαρμοσμένο σε αλγόριθμους. Όπως συμβαίνει αυτό, ο κόσμος δεν θα τελειώσει. Αλλά οι άνθρωποι θα χάσουν σταδιακά την ικανότητα να κάνουν οι ίδιοι αυτές τις κρίσεις. Όσο λιγότερα από αυτά τα κάνουν οι άνθρωποι, τόσο χειρότερα είναι πιθανό να τα κάνουν.

Ή σκεφτείτε τον ρόλο της τύχης στη ζωή των ανθρώπων. Οι άνθρωποι εκτιμούν τις ασυνήθιστες συναντήσεις: συναντούν ένα μέρος, πρόσωπο ή δραστηριότητα κατά λάθος, παρασύρονται σε αυτό και εκτιμούν εκ των υστέρων τον ρόλο που έπαιξε το ατύχημα σε αυτά τα σημαντικά ευρήματα. Αλλά ο ρόλος των μηχανών αλγοριθμικών συστάσεων είναι να μειώστε αυτό το είδος της ηρεμίας και αντικαταστήστε το με προγραμματισμό και πρόβλεψη.

Τέλος, εξετάστε τις δυνατότητες γραφής του ChatGPT. Η τεχνολογία βρίσκεται στη διαδικασία εξάλειψης του ρόλου των γραπτών εργασιών στην τριτοβάθμια εκπαίδευση. Εάν συμβεί αυτό, οι εκπαιδευτικοί θα χάσουν ένα βασικό εργαλείο για τη διδασκαλία των μαθητών πώς να σκέφτεσαι κριτικά.

Όχι νεκρή αλλά μειωμένη

Οπότε, όχι, η τεχνητή νοημοσύνη δεν θα ανατινάξει τον κόσμο. Αλλά η ολοένα και πιο άκριτη αγκαλιά του, σε μια ποικιλία στενών πλαισίων, σημαίνει τη σταδιακή διάβρωση ορισμένων από τις πιο σημαντικές δεξιότητες των ανθρώπων. Οι αλγόριθμοι ήδη υπονομεύουν την ικανότητα των ανθρώπων να κάνουν κρίσεις, να απολαμβάνουν ειλικρινείς συναντήσεις και να ακονίζουν την κριτική σκέψη.

Το ανθρώπινο είδος θα επιβιώσει από τέτοιες απώλειες. Αλλά ο τρόπος ύπαρξης μας θα φτωχύνει στην πορεία. Οι φανταστικές ανησυχίες γύρω από τον επερχόμενο κατακλυσμό της τεχνητής νοημοσύνης, τη μοναδικότητα, το Skynet, ή όπως και να το σκεφτείτε, συγκαλύπτουν αυτά τα πιο λεπτεπίλεπτα κόστη. Θυμηθείτε τις διάσημες γραμμές κλεισίματος του TS Eliot του "Οι Κοίλοι Άντρες»: «Έτσι τελειώνει ο κόσμος», έγραψε, «όχι με ένα χτύπημα αλλά ένα κλαψούρισμα».Η Συνομιλία

Σχετικά με το Συγγραφέας

Nir Eisikovits, Καθηγητής Φιλοσοφίας και Διευθυντής, Κέντρο Εφαρμοσμένης Ηθικής, UMass Βοστώνη

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.