Η τεχνητή νοημοσύνη μπορεί τώρα να μιμηθεί ανθρώπινες συμπεριφορές και σύντομα θα είναι επικίνδυνα καλήΜήπως αυτό το πρόσωπο είναι μόνο ένα συγκρότημα κομματιών υπολογιστή; PHOTOCREO Michal Bednarek / Shutterstock.com

Όταν τα συστήματα τεχνητής νοημοσύνης αρχίζουν να δημιουργούνται, μπορούν να δημιουργήσουν εξαιρετικά πράγματα - και τρομακτικά. Πάρτε, για παράδειγμα, ένα πρόγραμμα AI που επιτρέπει Οι χρήστες του διαδικτύου συνθέτουν μουσική μαζί με ένα εικονικός Johann Sebastian Bach εισάγοντας σημειώσεις σε ένα πρόγραμμα που δημιουργεί αρμονικές που μοιάζουν με Bach.

Εκτελείται από την Google, η εφαρμογή Drew εξαιρετική έπαινος για να είναι πρωτοποριακό και διασκεδαστικό να παίζετε. Επίσης προσέλκυσε κριτικήκαι εγείρει ανησυχίες σχετικά με τους κινδύνους της τεχνητής νοημοσύνης.

Η μελέτη μου για το πώς Οι αναδυόμενες τεχνολογίες επηρεάζουν τη ζωή των ανθρώπων με έχει διδάξει ότι τα προβλήματα ξεπερνούν την ομολογουμένως μεγάλη ανησυχία αν αλγόριθμοι μπορεί πραγματικά δημιουργήστε μουσική ή τέχνη γενικά. Ορισμένα παράπονα φαίνονταν μικρά, αλλά πραγματικά δεν ήταν, όπως παρατηρήσεις που ήταν η τεχνητή νοημοσύνη της Google παραβίαση βασικών κανόνων μουσικής σύνθεσης.

Στην πραγματικότητα, οι προσπάθειες να μιμούνται υπολογιστές τη συμπεριφορά των πραγματικών ανθρώπων μπορεί να προκαλούν σύγχυση και δυνητικά επιβλαβείς.


εσωτερικά εγγραφείτε γραφικό


Τεχνολογίες πλαστοπροσωπίας

Το πρόγραμμα της Google ανέλυσε τις νότες σε 306 μουσικά έργα του Μπαχ, βρίσκοντας σχέσεις μεταξύ της μελωδίας και των νότες που παρείχαν την αρμονία. Επειδή ο Μπαχ ακολούθησε αυστηρούς κανόνες σύνθεσης, το πρόγραμμα μάθαινε αποτελεσματικά αυτούς τους κανόνες, οπότε θα μπορούσε να τους εφαρμόσει όταν οι χρήστες παρείχαν τις δικές τους σημειώσεις.

 Η ομάδα του Google Doodle εξηγεί το πρόγραμμα Bach.

{youtube}XBfYPp6KF2g{/youtube}

Η ίδια η εφαρμογή Bach είναι νέα, αλλά η βασική τεχνολογία δεν είναι. Εκπαιδευμένοι αλγόριθμοι αναγνωρίστε μοτίβα και κανε πιθανολογικές αποφάσεις υπάρχουν εδώ και πολύ καιρό. Μερικοί από αυτούς τους αλγόριθμους είναι τόσο περίπλοκοι που οι άνθρωποι δεν καταλαβαίνω πάντα πώς λαμβάνουν αποφάσεις ή παράγουν ένα συγκεκριμένο αποτέλεσμα.

Τα συστήματα AI δεν είναι τέλεια - πολλά από αυτά βασίζονται δεδομένα που δεν είναι αντιπροσωπευτικά όλου του πληθυσμού, ή που είναι επηρεάζεται από ανθρώπινες προκαταλήψεις. Δεν είναι απολύτως σαφές ποιος μπορεί να είναι νομικά υπεύθυνος όταν ένα σύστημα AI κάνει σφάλμα ή προκαλεί πρόβλημα.

Τώρα, όμως, οι τεχνολογίες τεχνητής νοημοσύνης εξελίσσονται αρκετά ώστε να είναι σε θέση να προσεγγίσουν το στυλ γραφής ή ομιλίας των ατόμων, ακόμη και τις εκφράσεις του προσώπου. Αυτό δεν είναι πάντα κακό: Μια αρκετά απλή τεχνητή νοημοσύνη έδωσε στον Stephen Hawking ικανότητα επικοινωνίας πιο αποτελεσματικά με άλλους προβλέποντας τις λέξεις που θα χρησιμοποιούσε περισσότερο.

Πιο περίπλοκα προγράμματα που μιμούνται ανθρώπινες φωνές βοηθούν άτομα με αναπηρία - αλλά μπορεί επίσης να χρησιμοποιηθεί για να εξαπατήσει τους ακροατές. Για παράδειγμα, οι κατασκευαστές του αποδημητικό πτηνό της αυστραλίας, ένα πρόγραμμα μίμησης φωνής, έχουν κυκλοφορήσει ένα προσομοίωση συνομιλίας μεταξύ του Μπαράκ Ομπάμα, του Ντόναλντ Τραμπ και της Χίλαρι Κλίντον. Μπορεί να ακούγεται αληθινό, αλλά αυτή η ανταλλαγή δεν έγινε ποτέ.

Από το καλό στο κακό

Τον Φεβρουάριο του 2019, η μη κερδοσκοπική εταιρεία OpenAI δημιούργησε ένα πρόγραμμα που δημιουργεί κείμενο που είναι ουσιαστικά δεν διακρίνεται από το κείμενο γραμμένο από ανθρώπους. Μπορεί να "γράψει" μια ομιλία στο στυλ του John F. Kennedy, JRR Tolkien στο “Ο Άρχοντας των Δαχτυλιδιών»Ή ένας μαθητής που γράφει μια σχολική εργασία για τον εμφύλιο πόλεμο των ΗΠΑ.

Το κείμενο που δημιουργείται από το λογισμικό του OpenAI είναι τόσο πιστευτό που έχει επιλέξει η εταιρεία να μην απελευθερωθεί το ίδιο το πρόγραμμα.

Παρόμοιες τεχνολογίες μπορούν να προσομοιώσουν φωτογραφίες και βίντεο. Στις αρχές του 2018, για παράδειγμα, ο ηθοποιός και σκηνοθέτης Jordan Peele δημιούργησε ένα βίντεο που φαίνεται να δείχνει στον πρώην πρόεδρο των ΗΠΑ Μπαράκ Ομπάμα να λέει πράγματα που δεν είπε ποτέ ο Ομπάμα να προειδοποιήσει το κοινό για τους κινδύνους που ενέχουν αυτές οι τεχνολογίες.

Προσέξτε τι βίντεο πιστεύετε.

{youtube}cQ54GDm1eL0{/youtube}

Στις αρχές του 2019, α ψεύτικη γυμνή φωτογραφία της Αμερικανικής Δημοκρατίας Alexandria Ocasio-Cortez κυκλοφόρησε στο διαδίκτυο. Κατασκευασμένα βίντεο, συχνά καλείται "deepfakes, "Αναμένεται να είναι όλο και περισσότερο μεταχειρισμένος σε προεκλογικές εκστρατείες.

Μέλη του Κογκρέσου έχουν αρχίσει να εξετάζουν αυτό το ζήτημα ενόψει των εκλογών του 2020. Το αμερικανικό υπουργείο Άμυνας διδάσκει το κοινό πώς να εντοπίσετε διδακτορικά βίντεο και ήχου. Ειδήσεις ειδήσεις αρέσει Reuters αρχίζουν να εκπαιδεύουν τους δημοσιογράφους να εντοπίζουν βαθιές ψαροί.

Όμως, κατά την άποψή μου, παραμένει μια ακόμη μεγαλύτερη ανησυχία: Οι χρήστες μπορεί να μην μπορούν να μάθουν αρκετά γρήγορα για να διακρίνουν το ψεύτικο περιεχόμενο καθώς η τεχνολογία AI γίνεται πιο εξελιγμένη. Για παράδειγμα, καθώς το κοινό έχει αρχίσει να γνωρίζει τα deepfakes, το AI χρησιμοποιείται ήδη για ακόμη πιο προχωρημένες εξαπατήσεις. Υπάρχουν πλέον προγράμματα που μπορούν να δημιουργήσουν ψεύτικα πρόσωπα και ψεύτικα ψηφιακά δακτυλικά αποτυπώματα, δημιουργώντας αποτελεσματικά τις πληροφορίες που απαιτούνται για την κατασκευή ενός ολόκληρου ατόμου - τουλάχιστον σε εταιρικά ή κρατικά αρχεία.

Οι μηχανές συνεχίζουν να μαθαίνουν

Προς το παρόν, υπάρχουν αρκετά πιθανά σφάλματα σε αυτές τις τεχνολογίες για να δώσουν στους ανθρώπους την ευκαιρία να εντοπίσουν ψηφιακές κατασκευές. Συνθέτης της Google Bach έκανε κάποια λάθη ένας ειδικός θα μπορούσε να εντοπίσει. Για παράδειγμα, όταν το δοκίμασα, το πρόγραμμα μου επέτρεψε να μπω παράλληλα πέμπτα, ένα μουσικό διάστημα που ο Μπαχ αποφεύγεται επιμελώς. Η εφαρμογή επίσης έσπασε τους μουσικούς κανόνες της αντίθεσης εναρμονίζοντας τις μελωδίες σε λάθος κλειδί. Ομοίως, το πρόγραμμα δημιουργίας κειμένου της OpenAI έγραφε περιστασιακά φράσεις όπως "πυρκαγιές συμβαίνουν κάτω από το νερόΠου δεν είχε νόημα στα περιβάλλοντά τους.

Καθώς οι προγραμματιστές εργάζονται στις δημιουργίες τους, αυτά τα λάθη θα γίνουν πιο σπάνια. Αποτελεσματικά, οι τεχνολογίες τεχνητής νοημοσύνης θα εξελιχθούν και θα μάθουν. Η βελτιωμένη απόδοση έχει τη δυνατότητα να αποφέρει πολλά κοινωνικά οφέλη - συμπεριλαμβανομένης της καλύτερης υγειονομικής περίθαλψης, καθώς βοηθούν τα προγράμματα τεχνητής νοημοσύνης εκδημοκρατικοποίηση της ιατρικής.

Η παροχή ελευθερίας σε ερευνητές και εταιρείες να εξερευνήσουν, προκειμένου να αναζητήσουν αυτά τα θετικά επιτεύγματα από τα συστήματα τεχνητής νοημοσύνης, σημαίνει το άνοιγμα του κινδύνου ανάπτυξης πιο προηγμένων τρόπων δημιουργίας εξαπάτησης και άλλων κοινωνικών προβλημάτων. Θα μπορούσε να περιοριστεί σοβαρά η έρευνα για την τεχνητή νοημοσύνη αναχαιτίστε αυτήν την πρόοδο. Αλλά δίνοντας ευεργετικές τεχνολογίες χώρο για ανάπτυξη δεν έχει μικρό κόστος - και η πιθανότητα κακής χρήσης, είτε να κάνει ανακριβή μουσική "Bach-like" είτε να εξαπατήσει εκατομμύρια, είναι πιθανό να αυξηθεί με τρόπους που οι άνθρωποι δεν μπορούν ακόμη να προβλέψουν.Η Συνομιλία

Σχετικά με το Συγγραφέας

Ana Santos Rutschman, Επίκουρη Καθηγήτρια Νομικής, Πανεπιστήμιο Saint Louis

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Σχετικά βιβλία

at InnerSelf Market και Amazon