Καθώς η τεχνητή νοημοσύνη εισχωρεί περαιτέρω στην καθημερινή ζωή των ανθρώπων, το ίδιο συμβαίνει και με τις ανησυχίες για αυτήν. Το πιο ανησυχητικό είναι οι ανησυχίες για την τεχνητή νοημοσύνη πηγαίνοντας απατεώνας και τερματίζοντας τους ανθρώπινους κυρίους του.

Όμως πίσω από τις εκκλήσεις για α παύση στην ανάπτυξη του AI είναι μια σουίτα πιο απτών κοινωνικών δεινών. Μεταξύ αυτών είναι οι κίνδυνοι που εγκυμονεί η τεχνητή νοημοσύνη για τους ανθρώπους ιδιωτικότητα και αξιοπρέπεια και το αναπόφευκτο γεγονός ότι, επειδή οι αλγόριθμοι κάτω από την κουκούλα του AI προγραμματίζονται από ανθρώπους, είναι εξίσου μεροληπτική και μεροληπτικός όπως πολλοί από εμάς. Ρίξτε μέσα το έλλειψη διαφάνειας για το πώς σχεδιάζεται η τεχνητή νοημοσύνη και από ποιον, και είναι εύκολο να καταλάβουμε γιατί αφιερώνεται τόσος χρόνος στις μέρες μας συζητώντας τους κινδύνους του όσο και οι δυνατότητές του.

Αλλά η δική μου έρευνα ως ψυχολόγος που μελετά πώς οι άνθρωποι παίρνουν αποφάσεις με κάνει να πιστεύω ότι όλοι αυτοί οι κίνδυνοι επισκιάζονται από μια ακόμη πιο διαφθαρμένη, αν και σε μεγάλο βαθμό αόρατη, απειλή. Δηλαδή, η τεχνητή νοημοσύνη είναι απλώς πατήματα πλήκτρων μακριά από το να κάνει τους ανθρώπους ακόμα λιγότερο πειθαρχημένους και ικανούς όταν πρόκειται για στοχαστικές αποφάσεις.

Λήψη στοχαστικών αποφάσεων

Η διαδικασία λήψης στοχαστικών αποφάσεων περιλαμβάνει τρεις βήματα κοινής λογικής που ξεκινούν με το να αφιερώνετε χρόνο για να κατανοήσετε την εργασία ή το πρόβλημα που αντιμετωπίζετε. Αναρωτηθείτε, τι είναι αυτό που πρέπει να γνωρίζετε και τι πρέπει να κάνετε για να πάρετε μια απόφαση που θα είστε σε θέση να υπερασπιστείτε αξιόπιστα και με σιγουριά αργότερα;

Οι απαντήσεις σε αυτές τις ερωτήσεις εξαρτώνται από την ενεργή αναζήτηση πληροφοριών που καλύπτουν κενά στις γνώσεις σας και αμφισβητούν τις προηγούμενες πεποιθήσεις και υποθέσεις σας. Στην πραγματικότητα, αυτό είναι αντίθετες πληροφορίες – εναλλακτικές δυνατότητες που προκύπτουν όταν οι άνθρωποι αποφορτίζονται από ορισμένες υποθέσεις – που τελικά σας εξοπλίζουν να υπερασπιστείτε τις αποφάσεις σας όταν τους επικρίνουν.


εσωτερικά εγγραφείτε γραφικό


Οι στοχαστικές αποφάσεις περιλαμβάνουν την εξέταση των αξιών σας και τη στάθμιση των ανταλλαγών.

Το δεύτερο βήμα είναι να αναζητήσετε και να εξετάσετε περισσότερες από μία επιλογές τη φορά. Θέλετε να βελτιώσετε την ποιότητα ζωής σας; Είτε πρόκειται για ποιον ψηφίζετε, για τις δουλειές που δέχεστε ή για τα πράγματα που αγοράζετε, υπάρχουν πάντα περισσότεροι από ένας δρόμοι που θα σας οδηγήσουν εκεί. Καταναλώνοντας την προσπάθεια να εξετάσετε ενεργά και να αξιολογήσετε τουλάχιστον μερικές εύλογες επιλογές και με τρόπο που να είναι ειλικρινής σχετικά με συμβιβασμούς που είστε διατεθειμένοι να κάνετε σε όλα τα πλεονεκτήματα και τα μειονεκτήματά τους, αποτελεί χαρακτηριστικό μιας στοχαστικής και υπερασπιστής επιλογής.

Το τρίτο βήμα είναι να είσαι πρόθυμος καθυστέρηση κλεισίματος σε μια απόφαση μέχρι να τα κάνετε όλα απαραίτητη βαριά ψυχική ανύψωση. Δεν είναι μυστικό: Το κλείσιμο είναι καλό γιατί σημαίνει ότι έχετε αφήσει πίσω σας μια δύσκολη ή σημαντική απόφαση. Αλλά το κόστος της πρόωρης μετάβασης μπορεί να είναι πολύ υψηλότερο από το να αφιερώσετε χρόνο για να κάνετε την εργασία σας. Αν δεν με πιστεύεις, απλώς σκέψου όλες εκείνες τις φορές που αφήνεις τα συναισθήματά σου να σε καθοδηγήσουν, μόνο σε αυτές βιώνουν τη λύπη γιατί δεν αφιερώσατε χρόνο να σκεφτείτε λίγο περισσότερο.

Κίνδυνοι από την εξωτερική ανάθεση αποφάσεων στην τεχνητή νοημοσύνη

Κανένα από αυτά τα τρία βήματα δεν είναι τρομερά δύσκολο να γίνει. Αλλά, για τους περισσότερους, είναι όχι διαισθητικό είτε. Λήψη στοχαστικών και υπερασπιστικών αποφάσεων απαιτεί εξάσκηση και αυτοπειθαρχία. Και εδώ είναι που έρχεται η κρυφή βλάβη στην οποία εκθέτει τους ανθρώπους η τεχνητή νοημοσύνη: η τεχνητή νοημοσύνη κάνει το μεγαλύτερο μέρος της «σκέψης» της στα παρασκήνια και παρουσιάζει στους χρήστες απαντήσεις που είναι απαλλαγμένες από το πλαίσιο και τη σκέψη. Ακόμη χειρότερα, η τεχνητή νοημοσύνη στερεί από τους ανθρώπους την ευκαιρία να εξασκηθούν στη διαδικασία λήψης στοχαστικών και υπερασπίσιμων αποφάσεων από μόνοι τους.

Σκεφτείτε πώς προσεγγίζουν οι άνθρωποι πολλές σημαντικές αποφάσεις σήμερα. Οι άνθρωποι είναι γνωστοί για την ύπαρξη τους επιρρεπείς σε ένα ευρύ φάσμα προκαταλήψεων γιατί τείνουμε να είμαστε φειδωλοί όταν πρόκειται να ξοδέψουμε ψυχική ενέργεια. Αυτή η λιτότητα κάνει τους ανθρώπους να τους αρέσει όταν φαινομενικά είναι καλό ή αξιόπιστο λαμβάνονται αποφάσεις για αυτούς. Και είμαστε κοινωνικά ζώα που τείνουν να εκτιμούν την ασφάλεια και την αποδοχή των κοινοτήτων τους περισσότερο από ό,τι θα μπορούσαν να εκτιμήσουν τη δική τους αυτονομία.

Προσθέστε την τεχνητή νοημοσύνη στο μείγμα και το αποτέλεσμα είναι ένας επικίνδυνος βρόχος ανάδρασης: Τα δεδομένα που εξορύσσει η τεχνητή νοημοσύνη για να τροφοδοτήσει τους αλγόριθμούς της είναι αποτελείται από προκατειλημμένες αποφάσεις των ανθρώπων που αντικατοπτρίζουν επίσης την πίεση της συμμόρφωσης αντί της σοφίας του κριτικός συλλογισμός. Αλλά επειδή στους ανθρώπους αρέσει να παίρνουν αποφάσεις για αυτούς, τείνουν να αποδέχονται αυτές τις κακές αποφάσεις και να προχωρήσουν στην επόμενη. Τελικά, ούτε εμείς ούτε η τεχνητή νοημοσύνη καταλήγουμε σοφότεροι.

Να είσαι στοχαστικός στην εποχή του AI

Θα ήταν λάθος να υποστηρίξουμε ότι η τεχνητή νοημοσύνη δεν θα προσφέρει κανένα όφελος στην κοινωνία. Το πιθανότερο είναι, ειδικά σε τομείς όπως κυβερνασφάλεια, υγειονομική περίθαλψη και χρηματοδότηση, όπου πολύπλοκα μοντέλα και τεράστιες ποσότητες δεδομένων πρέπει να αναλύονται τακτικά και γρήγορα. Ωστόσο, οι περισσότερες από τις καθημερινές μας αποφάσεις δεν απαιτούν αυτού του είδους την αναλυτική ιπποδύναμη.

Αλλά είτε το ζητήσαμε είτε όχι, πολλοί από εμάς έχουμε ήδη λάβει συμβουλές από – και εργασίες που εκτελούνται από – την τεχνητή νοημοσύνη σε ρυθμίσεις που κυμαίνονται από ψυχαγωγία και ταξίδι προς την σχολική εργασία, υγειονομική περίθαλψη και χρηματοδότηση. Και οι σχεδιαστές δουλεύουν σκληρά επόμενης γενιάς AI που θα είναι σε θέση να αυτοματοποιήσει ακόμη περισσότερες από τις καθημερινές μας αποφάσεις. Και αυτό, κατά την άποψή μου, είναι επικίνδυνο.

Σε έναν κόσμο όπου τι και πώς νομίζουν οι άνθρωποι είναι ήδη υπό πολιορκία χάρη στο αλγόριθμοι των μέσων κοινωνικής δικτύωσης, κινδυνεύουμε να φέρουμε τον εαυτό μας σε ακόμη πιο επικίνδυνη θέση εάν επιτρέψουμε στην τεχνητή νοημοσύνη να φτάσει σε ένα επίπεδο πολυπλοκότητας όπου μπορεί να λάβει κάθε είδους αποφάσεις για λογαριασμό μας. Πράγματι, οφείλουμε στους εαυτούς μας να αντισταθούμε στο κάλεσμα της σειρήνας της τεχνητής νοημοσύνης και να ανακτήσουμε την κυριότητα του αληθινού προνομίου –και της ευθύνης– του να είμαστε άνθρωποι: να μπορούμε να σκεφτόμαστε και να επιλέγουμε μόνοι μας. Θα αισθανθούμε καλύτερα και, κυρίως, θα είμαστε καλύτερα αν το κάνουμε.Η Συνομιλία

Joe Árvai, Dana και David Dornsife Καθηγητής Ψυχολογίας και Διευθυντής του Ινστιτούτου Wrigley για το Περιβάλλον και την Αειφορία, USC Dornsife College of Γραμμάτων, Τεχνών και Επιστημών

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.