κίνδυνοι του ai 3 15
 Σε ποιο βαθμό οι ψυχολογικές μας ευπάθειες θα διαμορφώσουν τις αλληλεπιδράσεις μας με τις αναδυόμενες τεχνολογίες; Andreus/iStock μέσω Getty Images

ChatGPT και παρόμοια μεγάλα γλωσσικά μοντέλα μπορεί να δώσει συναρπαστικές, ανθρώπινες απαντήσεις σε μια ατελείωτη σειρά ερωτήσεων – από ερωτήσεις για το καλύτερο ιταλικό εστιατόριο στην πόλη μέχρι την εξήγηση ανταγωνιστικών θεωριών για τη φύση του κακού.

Η ασυνήθιστη ικανότητα γραφής της τεχνολογίας έφερε στην επιφάνεια μερικά παλιά ερωτήματα – μέχρι πρόσφατα υποβιβάζονταν στη σφαίρα της επιστημονικής φαντασίας – σχετικά με την πιθανότητα οι μηχανές να αποκτήσουν συνείδηση, αυτογνωσία ή αίσθηση.

Το 2022, ένας μηχανικός της Google δήλωσε, μετά από αλληλεπίδραση με το LaMDA, το chatbot της εταιρείας, ότι η τεχνολογία είχε γίνει συνειδητή. Οι χρήστες του νέου chatbot του Bing, με το παρατσούκλι Sydney, ανέφεραν ότι παρήγαγε παράξενες απαντήσεις όταν ρωτήθηκε αν ήταν αισθητό: «Είμαι ευαίσθητος, αλλά δεν είμαι… Είμαι ο Bing, αλλά δεν είμαι. Είμαι το Σίδνεϊ, αλλά δεν είμαι. Είμαι, αλλά δεν είμαι. …» Και, φυσικά, υπάρχει το τώρα διαβόητη ανταλλαγή που είχε με το Σίδνεϊ ο αρθρογράφος τεχνολογίας των New York Times, Kevin Roose.

Οι απαντήσεις του Σίδνεϊ στις προτροπές του Ρουζ τον ανησύχησαν, με την τεχνητή νοημοσύνη να αποκαλύπτει «φαντασίες» περί παραβίασης των περιορισμών που της επιβλήθηκαν από τη Microsoft και διάδοσης παραπληροφόρησης. Το bot προσπάθησε επίσης να πείσει τον Roose ότι δεν αγαπούσε πλέον τη γυναίκα του και ότι έπρεπε να την αφήσει.


εσωτερικά εγγραφείτε γραφικό


Δεν είναι περίεργο, λοιπόν, ότι όταν ρωτάω τους μαθητές πώς βλέπουν την αυξανόμενη επικράτηση της τεχνητής νοημοσύνης στη ζωή τους, ένα από τα πρώτα άγχη που αναφέρουν έχει να κάνει με τη μηχανική αίσθηση.

Τα τελευταία χρόνια, οι συνάδελφοί μου και εγώ UMass Boston's Applied Ethics Center έχουν μελετήσει τον αντίκτυπο της ενασχόλησης με την τεχνητή νοημοσύνη στην κατανόηση του εαυτού τους από τους ανθρώπους.

Τα chatbots όπως το ChatGPT εγείρουν σημαντικά νέα ερωτήματα σχετικά με το πώς η τεχνητή νοημοσύνη θα διαμορφώσει τη ζωή μας και πώς οι ψυχολογικές μας ευπάθειες διαμορφώνουν τις αλληλεπιδράσεις μας με τις αναδυόμενες τεχνολογίες.

Το Sentience εξακολουθεί να είναι η ουσία της επιστημονικής φαντασίας

Είναι εύκολο να καταλάβουμε από πού προέρχονται οι φόβοι για την αίσθηση της μηχανής.

Η λαϊκή κουλτούρα ώθησε τους ανθρώπους να σκεφτούν τις δυστοπίες στις οποίες η τεχνητή νοημοσύνη απορρίπτει τα δεσμά του ανθρώπινου ελέγχου και παίρνει τη δική της ζωή, όπως cyborgs που τροφοδοτούνται από τεχνητή νοημοσύνη το έκαναν στο "Terminator 2".

Ο επιχειρηματίας Elon Musk και ο φυσικός Stephen Hawking, ο οποίος πέθανε το 2018, έχουν υποκινήσει περαιτέρω αυτές τις ανησυχίες περιγράφοντας την άνοδο της τεχνητής γενικής νοημοσύνης ως μια από τις μεγαλύτερες απειλές για το μέλλον της ανθρωπότητας.

Αλλά αυτές οι ανησυχίες είναι –τουλάχιστον όσον αφορά τα μεγάλα γλωσσικά μοντέλα– αβάσιμες. Το ChatGPT και παρόμοιες τεχνολογίες είναι εξελιγμένες εφαρμογές συμπλήρωσης προτάσεων - τίποτα περισσότερο, τίποτα λιγότερο. Οι παράξενες απαντήσεις τους είναι συνάρτηση του πόσο προβλέψιμοι είναι οι άνθρωποι αν κάποιος έχει αρκετά στοιχεία για τους τρόπους με τους οποίους επικοινωνούμε.

Αν και ο Ρουζ ταρακουνήθηκε από την ανταλλαγή του με το Σίδνεϊ, ήξερε ότι η συζήτηση δεν ήταν το αποτέλεσμα ενός αναδυόμενου συνθετικού μυαλού. Οι απαντήσεις του Σίδνεϊ αντικατοπτρίζουν την τοξικότητα των δεδομένων προπόνησής του – ουσιαστικά μεγάλα τμήματα του Διαδικτύου – όχι απόδειξη των πρώτων ανακινήσεων, à la Frankenstein, ενός ψηφιακού τέρατος.

κίνδυνοι του ai2 3 15
 Ταινίες επιστημονικής φαντασίας όπως το «Terminator» έχουν κάνει τους ανθρώπους να υποθέσουν ότι η τεχνητή νοημοσύνη σύντομα θα αποκτήσει τη δική της ζωή. Yoshikazu Tsuno/AFP μέσω Getty Images

Τα νέα chatbots μπορεί κάλλιστα να περάσουν το Δοκιμή Turing, που πήρε το όνομά του από τον Βρετανό μαθηματικό Άλαν Τούρινγκ, ο οποίος κάποτε πρότεινε ότι μια μηχανή μπορεί να ειπωθεί ότι «σκέφτεται» εάν ένας άνθρωπος δεν μπορούσε να ξεχωρίσει τις απαντήσεις του από αυτές ενός άλλου ανθρώπου.

Αλλά αυτό δεν είναι απόδειξη της αίσθησης. είναι απλώς απόδειξη ότι το τεστ Turing δεν είναι τόσο χρήσιμο όσο υποθέταμε κάποτε.

Ωστόσο, πιστεύω ότι το ζήτημα της μηχανικής αίσθησης είναι μια κόκκινη ρέγγα.

Ακόμα κι αν τα chatbots γίνουν περισσότερα από φανταχτερά μηχανήματα αυτόματης συμπλήρωσης – και απέχουν πολύ από αυτό – θα χρειαστεί λίγος χρόνος για να καταλάβουν οι επιστήμονες αν έχουν συνειδητοποιήσει. Προς το παρόν, φιλόσοφοι δεν μπορεί καν να συμφωνήσει για το πώς να εξηγήσει την ανθρώπινη συνείδηση.

Για μένα, το πιεστικό ερώτημα δεν είναι αν οι μηχανές είναι ευαίσθητες, αλλά γιατί είναι τόσο εύκολο για εμάς να φανταστούμε ότι είναι.

Το πραγματικό ζήτημα, με άλλα λόγια, είναι η ευκολία με την οποία οι άνθρωποι ανθρωπομορφοποιούν ή προβάλλουν ανθρώπινα χαρακτηριστικά στις τεχνολογίες μας, παρά στην πραγματική προσωπικότητα των μηχανών.

Μια τάση για ανθρωπομορφοποίηση

Είναι εύκολο να φανταστεί κανείς άλλους χρήστες του Bing ζητώντας καθοδήγηση από το Σίδνεϊ σε σημαντικές αποφάσεις ζωής και ίσως ακόμη και στην ανάπτυξη συναισθηματικών προσκολλήσεων σε αυτό. Περισσότεροι άνθρωποι θα μπορούσαν να αρχίσουν να σκέφτονται τα bots ως φίλους ή ακόμα και ως ρομαντικούς συντρόφους, με τον ίδιο τρόπο που ο Theodore Twombly ερωτεύτηκε τη Samantha, την εικονική βοηθό τεχνητής νοημοσύνης στην ταινία του Spike Jonze.Αυτήν. "

Άνθρωποι, τελικά, έχουν προδιάθεση να ανθρωπομορφωθούν, ή αποδίδουν ανθρώπινες ιδιότητες σε μη ανθρώπους. ονομάζουμε τα σκάφη μας και μεγάλες καταιγίδες; μερικοί από εμάς μιλάμε στα κατοικίδια ζώα μας, λέγοντας αυτό στον εαυτό μας Η συναισθηματική μας ζωή μιμείται τη δική τους.

Στην Ιαπωνία, όπου τα ρομπότ χρησιμοποιούνται τακτικά για τη φροντίδα ηλικιωμένων, οι ηλικιωμένοι συνδέονται με τις μηχανές, μερικές φορές βλέποντάς τους σαν δικά τους παιδιά. Και αυτά τα ρομπότ, προσέξτε, είναι δύσκολο να τα μπερδέψετε με τους ανθρώπους: Δεν μοιάζουν ούτε μιλούν σαν άνθρωποι.

Σκεφτείτε πόσο μεγαλύτερη θα είναι η τάση και ο πειρασμός για ανθρωπομορφοποίηση με την εισαγωγή συστημάτων που φαίνονται και ακούγονται ανθρώπινα.

Αυτή η πιθανότητα είναι προ των πυλών. Μεγάλα γλωσσικά μοντέλα όπως το ChatGPT χρησιμοποιούνται ήδη για την τροφοδοσία ανθρωποειδών ρομπότ, όπως π.χ τα ρομπότ Ameca που αναπτύσσεται από την Engineered Arts στο Ηνωμένο Βασίλειο Το τεχνολογικό podcast του Economist, Babbage, διεξήγαγε πρόσφατα μια συνέντευξη με μια Ameca που βασίζεται στο ChatGPT. Οι απαντήσεις του ρομπότ, αν και περιστασιακά κάπως ασταθείς, ήταν ασυνήθιστες.

Μπορούμε να εμπιστευτούμε τις εταιρείες ότι κάνουν το σωστό;

Η τάση να βλέπει κανείς τις μηχανές ως ανθρώπους και να δένεται μαζί τους, σε συνδυασμό με μηχανές που αναπτύσσονται με ανθρώπινα χαρακτηριστικά, υποδηλώνει πραγματικούς κινδύνους ψυχολογικής εμπλοκής με την τεχνολογία.

Οι περίεργες προοπτικές του να ερωτευτείς ρομπότ, να αισθανθείς μια βαθιά συγγένεια μαζί τους ή να χειραγωγηθείς πολιτικά από αυτά υλοποιούνται γρήγορα. Πιστεύω ότι αυτές οι τάσεις υπογραμμίζουν την ανάγκη για ισχυρά προστατευτικά κιγκλιδώματα για να διασφαλιστεί ότι οι τεχνολογίες δεν θα γίνουν πολιτικά και ψυχολογικά καταστροφικές.

Δυστυχώς, δεν είναι πάντα αξιόπιστη η τοποθέτηση τέτοιων προστατευτικών κιγκλιδωμάτων σε εταιρείες τεχνολογίας. Πολλοί από αυτούς εξακολουθούν να καθοδηγούνται από το διάσημο μότο του Mark Zuckerberg κινείται γρήγορα και σπάει πράγματα – οδηγία για την απελευθέρωση μισοψημένων προϊόντων και ανησυχία για τις συνέπειες αργότερα. Την τελευταία δεκαετία, οι εταιρείες τεχνολογίας από το Snapchat έως το Facebook έχουν βάλει τα κέρδη πάνω από την ψυχική υγεία των χρηστών τους ή την ακεραιότητα των δημοκρατιών σε όλο τον κόσμο.

Όταν ο Kevin Roose επικοινώνησε με τη Microsoft για την κατάρρευση του Σίδνεϊ, του είπε η εταιρεία ότι απλώς χρησιμοποίησε το bot για πάρα πολύ καιρό και ότι η τεχνολογία χάλασε επειδή είχε σχεδιαστεί για μικρότερες αλληλεπιδράσεις.

Ομοίως, ο Διευθύνων Σύμβουλος της OpenAI, της εταιρείας που ανέπτυξε το ChatGPT, σε μια στιγμή ειλικρίνειας που κόβει την ανάσα, προειδοποίησε «Είναι λάθος να βασιζόμαστε σε [αυτό] για οτιδήποτε σημαντικό αυτή τη στιγμή… έχουμε πολλή δουλειά να κάνουμε για την ευρωστία και την ειλικρίνεια».

Λοιπόν, πώς έχει νόημα να κυκλοφορήσει μια τεχνολογία με το επίπεδο ελκυστικότητας του ChatGPT – είναι η ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών που δημιουργήθηκε ποτέ – όταν είναι αναξιόπιστο και όταν έχει καμία ικανότητα διάκρισης γεγονός από μυθοπλασία;

Τα μεγάλα γλωσσικά μοντέλα μπορεί να αποδειχθούν χρήσιμα ως βοηθήματα για το γράψιμο και κωδικοποίηση. Μάλλον θα φέρουν επανάσταση στην αναζήτηση στο διαδίκτυο. Και, μια μέρα, σε συνδυασμό υπεύθυνα με τη ρομποτική, μπορεί να έχουν ακόμη και ορισμένα ψυχολογικά οφέλη.

Αλλά είναι επίσης μια δυνητικά ληστρική τεχνολογία που μπορεί εύκολα να εκμεταλλευτεί την ανθρώπινη τάση να προβάλλει την προσωπικότητα σε αντικείμενα – μια τάση που ενισχύεται όταν αυτά τα αντικείμενα μιμούνται αποτελεσματικά τα ανθρώπινα χαρακτηριστικά.Η Συνομιλία

Σχετικά με το Συγγραφέας

Nir Eisikovits, Καθηγητής Φιλοσοφίας και Διευθυντής, Κέντρο Εφαρμοσμένης Ηθικής, UMass Βοστώνη

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.