Η Τεχνητή Νοημοσύνη θα καταλάβει ποτέ τα ανθρώπινα συναισθήματα;

Πώς θα σας φαινόταν να λάβετε θεραπεία από ένα ρομπότ; Τα συναισθηματικά έξυπνα μηχανήματα μπορεί να μην είναι τόσο μακριά όσο φαίνεται. Τις τελευταίες δεκαετίες, η τεχνητή νοημοσύνη (AI) γίνεται όλο και πιο καλή στην ανάγνωση συναισθηματικών αντιδράσεων στους ανθρώπους.

Αλλά το διάβασμα δεν είναι το ίδιο με την κατανόηση. Εάν η τεχνητή νοημοσύνη δεν μπορεί να βιώσει τα ίδια τα συναισθήματα, μπορεί ποτέ να μας καταλάβει πραγματικά; Και, αν όχι, υπάρχει κίνδυνος να αποδώσουμε ιδιότητες ρομπότ που δεν έχουν;

Η τελευταία γενιά AI δημιουργήθηκε χάρη στην αύξηση των διαθέσιμων δεδομένων από τους οποίους μπορούν να μάθουν οι υπολογιστές, καθώς και στη βελτιωμένη ισχύ επεξεργασίας τους. Αυτές οι μηχανές είναι όλο και πιο ανταγωνιστικές σε εργασίες που πάντα θεωρούνταν ανθρώπινες.

Η AI μπορεί πλέον, μεταξύ άλλων, αναγνωρίζουν πρόσωπα, μετατρέψτε τα σκίτσα προσώπου σε φωτογραφίες, αναγνωρίζουν την ομιλία και Παίξτε Go.

Αναγνώριση εγκληματιών

Πρόσφατα, οι ερευνητές ανέπτυξαν μια τεχνητή νοημοσύνη που είναι σε θέση να πει εάν ένα άτομο είναι εγκληματίας κοιτάζοντας τα χαρακτηριστικά του προσώπου του. Το σύστημα αξιολογήθηκε χρησιμοποιώντας μια βάση δεδομένων με κινεζικές φωτογραφίες ταυτότητας και τα αποτελέσματα πέφτουν τα σαγόνια. Το AI κατηγοριοποίησε εσφαλμένα τους αθώους ως εγκληματίες μόνο στο 6% των περιπτώσεων, ενώ μπόρεσε να εντοπίσει με επιτυχία περίπου το 83% των εγκληματιών. Αυτό οδηγεί σε μια συγκλονιστική συνολική ακρίβεια σχεδόν 90%.

Το σύστημα βασίζεται σε μια προσέγγιση που ονομάζεται «βαθιά μάθηση», η οποία ήταν επιτυχής σε αντιληπτικά καθήκοντα όπως η αναγνώριση προσώπου. Εδώ, η βαθιά μάθηση σε συνδυασμό με ένα «μοντέλο περιστροφής προσώπου» επιτρέπει στο AI να επαληθεύει εάν δύο φωτογραφίες προσώπου αντιπροσωπεύουν το ίδιο άτομο, ακόμη και αν ο φωτισμός ή η γωνία αλλάζουν μεταξύ των φωτογραφιών.


εσωτερικά εγγραφείτε γραφικό


Βαθιά μάθηση χτίζει ένα «νευρωνικό δίκτυο», χαλαρά σχεδιασμένο στον ανθρώπινο εγκέφαλο. Αυτό αποτελείται από εκατοντάδες χιλιάδες νευρώνες οργανωμένους σε διαφορετικά στρώματα. Κάθε στρώμα μετατρέπει την είσοδο, για παράδειγμα μια εικόνα προσώπου, σε ένα υψηλότερο επίπεδο αφαίρεσης, όπως ένα σύνολο ακμών σε ορισμένους προσανατολισμούς και τοποθεσίες. Αυτό τονίζει αυτόματα τις δυνατότητες που είναι πιο σχετικές με την εκτέλεση μιας δεδομένης εργασίας.

Δεδομένης της επιτυχίας της βαθιάς μάθησης, δεν αποτελεί έκπληξη το γεγονός ότι τα τεχνητά νευρωνικά δίκτυα μπορούν να διακρίνουν τους εγκληματίες από τους μη εγκληματίες-εάν υπάρχουν πραγματικά χαρακτηριστικά του προσώπου που μπορούν να κάνουν διακρίσεις μεταξύ τους. Η έρευνα δείχνει ότι υπάρχουν τρεις. Η μία είναι η γωνία μεταξύ της άκρης της μύτης και των γωνιών του στόματος, η οποία ήταν κατά μέσο όρο 19.6% μικρότερη για τους εγκληματίες. Η καμπυλότητα του άνω χείλους ήταν επίσης κατά μέσο όρο 23.4% για τους εγκληματίες, ενώ η απόσταση μεταξύ των εσωτερικών γωνιών των ματιών ήταν κατά μέσο όρο 5.6% μικρότερη.

Με την πρώτη ματιά, αυτή η ανάλυση φαίνεται να το υποδηλώνει ξεπερασμένες απόψεις ότι οι εγκληματίες μπορούν να αναγνωριστούν με φυσικά χαρακτηριστικά δεν είναι εντελώς λάθος. Ωστόσο, μπορεί να μην είναι ολόκληρη η ιστορία. Είναι ενδιαφέρον ότι δύο από τα πιο σχετικά χαρακτηριστικά σχετίζονται με τα χείλη, τα οποία είναι τα πιο εκφραστικά χαρακτηριστικά του προσώπου μας. Οι φωτογραφίες ταυτότητας όπως αυτές που χρησιμοποιήθηκαν στη μελέτη απαιτείται να έχουν ουδέτερη έκφραση προσώπου, αλλά θα μπορούσε να είναι ότι η τεχνητή νοημοσύνη κατάφερε να βρει κρυμμένα συναισθήματα σε αυτές τις φωτογραφίες. Αυτά μπορεί να είναι τόσο μικρά που οι άνθρωποι μπορεί να δυσκολεύτηκαν να τα παρατηρήσουν.

Είναι δύσκολο να αντισταθούμε στον πειρασμό να δούμε τα δείγματα φωτογραφιών που εμφανίζονται στο έγγραφο, το οποίο δεν έχει ακόμη αξιολογηθεί από ομοτίμους. Πράγματι, μια προσεκτική ματιά αποκαλύπτει ένα ελαφρύ χαμόγελο στις φωτογραφίες μη εγκληματιών - Δες το και μονος σου. Αλλά μόνο μερικά δείγματα φωτογραφιών είναι διαθέσιμα, οπότε δεν μπορούμε να γενικεύσουμε τα συμπεράσματά μας σε ολόκληρη τη βάση δεδομένων.

Η δύναμη του συναισθηματικού υπολογισμού

Δεν θα ήταν η πρώτη φορά που ένας υπολογιστής μπόρεσε να αναγνωρίσει τα ανθρώπινα συναισθήματα. Το λεγόμενο πεδίο «συναισθηματική πληροφορική»Υπάρχει εδώ και αρκετά χρόνια. Υποστηρίζεται ότι, αν θέλουμε να ζούμε άνετα και να αλληλεπιδρούμε με ρομπότ, αυτές οι μηχανές θα πρέπει να είναι σε θέση να κατανοήσουν και να αντιδράσουν κατάλληλα στα ανθρώπινα συναισθήματα. Υπάρχει πολλή δουλειά στην περιοχή και οι δυνατότητες είναι τεράστιες.

Για παράδειγμα, οι ερευνητές χρησιμοποίησαν ανάλυση προσώπου για spot μαθητές που αγωνίζονται σε συνεδρίες διδασκαλίας υπολογιστών. Το AI εκπαιδεύτηκε να αναγνωρίζει διαφορετικά επίπεδα εμπλοκής και απογοήτευσης, έτσι ώστε το σύστημα να μπορεί να γνωρίζει πότε οι μαθητές βρίσκουν την εργασία πολύ εύκολη ή πολύ δύσκολη. Αυτή η τεχνολογία θα μπορούσε να είναι χρήσιμη για τη βελτίωση της μαθησιακής εμπειρίας σε διαδικτυακές πλατφόρμες.

Το AI έχει επίσης συνηθίσει ανιχνεύουμε συναισθήματα με βάση τον ήχο της φωνής μας από μια εταιρεία που ονομάζεται BeyondVerbal. Έχουν δημιουργήσει λογισμικό που αναλύει τη διαμόρφωση της φωνής και αναζητά συγκεκριμένα πρότυπα στον τρόπο που μιλούν οι άνθρωποι. Η εταιρεία ισχυρίζεται ότι είναι σε θέση να προσδιορίσει σωστά τα συναισθήματα με ακρίβεια 80%. Στο μέλλον, αυτός ο τύπος τεχνολογίας μπορεί, για παράδειγμα, να βοηθήσει τα αυτιστικά άτομα να αναγνωρίσουν συναισθήματα.

Η Sony προσπαθεί ακόμη και να αναπτύξει ένα ρομπότ ικανός να δημιουργήσει συναισθηματικούς δεσμούς με ανθρώπους. Δεν υπάρχουν πολλές πληροφορίες για το πώς σκοπεύουν να το επιτύχουν αυτό ή τι ακριβώς θα κάνει το ρομπότ. Ωστόσο, αναφέρουν ότι επιδιώκουν να «ενσωμάτωση υλικού και υπηρεσιών για την παροχή συναισθηματικά συναρπαστικών εμπειριών".

Μια συναισθηματικά ευφυής τεχνητή νοημοσύνη έχει πολλά πιθανά οφέλη, είτε πρόκειται να δώσει κάποιον σύντροφο είτε να μας βοηθήσει να εκτελέσουμε ορισμένα καθήκοντα - από εγκληματική ανάκριση έως θεραπεία ομιλίας.

Υπάρχουν όμως και ηθικά προβλήματα και κίνδυνοι. Είναι σωστό να αφήνουμε έναν ασθενή με άνοια να βασίζεται σε έναν σύντροφο της AI και να πιστεύει ότι έχει μια συναισθηματική ζωή όταν δεν το κάνει; Και μπορείτε να καταδικάσετε ένα άτομο με βάση μια τεχνητή νοημοσύνη που το χαρακτηρίζει ως ένοχο; Προφανώς όχι. Αντ 'αυτού, όταν ένα τέτοιο σύστημα βελτιωθεί περαιτέρω και αξιολογηθεί πλήρως, μια λιγότερο επιβλαβής και δυνητικά χρήσιμη χρήση μπορεί να είναι η ενεργοποίηση περαιτέρω ελέγχων σε άτομα που θεωρούνται «ύποπτα» από την AI.

Τι πρέπει να περιμένουμε λοιπόν από την τεχνητή νοημοσύνη στο μέλλον; Υποκειμενικά θέματα όπως τα συναισθήματα και τα συναισθήματα είναι ακόμα δύσκολο να μάθουν για την τεχνητή νοημοσύνη, εν μέρει επειδή η τεχνητή νοημοσύνη μπορεί να μην έχει πρόσβαση σε αρκετά καλά δεδομένα για να τα αναλύσει αντικειμενικά. Για παράδειγμα, θα μπορούσε ποτέ η τεχνητή νοημοσύνη να καταλάβει τον σαρκασμό; Μια δεδομένη πρόταση μπορεί να είναι σαρκαστική όταν εκφέρεται σε ένα πλαίσιο αλλά όχι σε ένα άλλο.

Ωστόσο, η ποσότητα δεδομένων και η επεξεργαστική ισχύς συνεχίζουν να αυξάνονται. Έτσι, με μερικές εξαιρέσεις, η τεχνητή νοημοσύνη μπορεί κάλλιστα να μπορεί να ταιριάξει με τους ανθρώπους στην αναγνώριση διαφορετικών τύπων συναισθημάτων στις επόμενες δεκαετίες. Αλλά αν μια τεχνητή νοημοσύνη θα μπορούσε ποτέ να βιώσει συναισθήματα είναι α αμφιλεγόμενο θέμα. Ακόμα κι αν μπορούσαν, σίγουρα μπορεί να υπάρχουν συναισθήματα που δεν θα μπορούσαν ποτέ να βιώσουν - καθιστώντας δύσκολη την πραγματική κατανόησή τους.

Η Συνομιλία

Σχετικά με το Συγγραφέας

Leandro Minku, Λέκτορας Πληροφορικής, Πανεπιστήμιο του Leicester

Αυτό το άρθρο δημοσιεύθηκε αρχικά στις Η Συνομιλία. Διαβάστε το αρχικό άρθρο.

Σχετικές Βιβλία:

at InnerSelf Market και Amazon