εμπιστεύομαι ai 7 20
 Τα chatbot τεχνητής νοημοσύνης γίνονται πιο ισχυρά, αλλά πώς ξέρετε αν λειτουργούν προς το συμφέρον σας; 

Αν ρωτήσετε την Alexa, το σύστημα τεχνητής νοημοσύνης με φωνητικό βοηθό της Amazon, εάν η Amazon είναι μονοπώλιο, απαντά με λέγοντας ότι δεν ξέρει. Δεν χρειάζονται πολλά για να το φτιάξεις λαμπάτε τους άλλους τεχνολογικούς γίγαντες, αλλά σιωπά για τα παραπτώματα της δικής της εταιρικής μητρικής.

Όταν η Alexa απαντά με αυτόν τον τρόπο, είναι προφανές ότι βάζει τα συμφέροντα του προγραμματιστή της πάνω από τα δικά σας. Συνήθως, όμως, δεν είναι τόσο προφανές ποιον εξυπηρετεί ένα σύστημα AI. Για να αποφευχθεί η εκμετάλλευση από αυτά τα συστήματα, οι άνθρωποι θα πρέπει να μάθουν να προσεγγίζουν την τεχνητή νοημοσύνη με σκεπτικισμό. Αυτό σημαίνει να κατασκευάζεις σκόπιμα την εισροή που του δίνεις και να σκέφτεσαι κριτικά για την παραγωγή του.

Οι νεότερες γενιές μοντέλων τεχνητής νοημοσύνης, με τις πιο εξελιγμένες και λιγότερο ευγενικές αποκρίσεις τους, καθιστούν πιο δύσκολο να πει κανείς ποιος ωφελείται όταν μιλάει. Το να χειραγωγούν οι εταιρείες του Διαδικτύου αυτό που βλέπετε για να εξυπηρετήσουν τα δικά τους συμφέροντα δεν είναι κάτι καινούργιο. Τα αποτελέσματα αναζήτησης της Google και η ροή σας στο Facebook είναι γεμάτη με πληρωμές. Facebook, TikTok και άλλοι χειρίζονται τις ροές σας για να μεγιστοποιήσουν τον χρόνο που αφιερώνετε στην πλατφόρμα, πράγμα που σημαίνει περισσότερες προβολές διαφημίσεων, για την ευημερία σας.

Αυτό που διακρίνει τα συστήματα τεχνητής νοημοσύνης από αυτές τις άλλες υπηρεσίες Διαδικτύου είναι το πόσο διαδραστικά είναι και πώς αυτές οι αλληλεπιδράσεις θα γίνονται όλο και περισσότερο σαν σχέσεις. Δεν χρειάζεται μεγάλη παρέκταση από τις σημερινές τεχνολογίες για να οραματιστούμε AI που θα προγραμματίζουν ταξίδια για εσάς, θα διαπραγματεύονται για λογαριασμό σας ή θα ενεργούν ως θεραπευτές και προπονητές ζωής.


εσωτερικά εγγραφείτε γραφικό


Είναι πιθανό να είναι μαζί σας 24/7, να σας γνωρίζουν από κοντά και να μπορούν να προβλέψουν τις ανάγκες σας. Αυτό το είδος διεπαφής συνομιλίας με το τεράστιο δίκτυο υπηρεσιών και πόρων στον Ιστό είναι εντός των δυνατοτήτων των υπαρχόντων τεχνητών νοημοσύνης που δημιουργούνται, όπως το ChatGPT. Είναι σε καλό δρόμο να γίνουν εξατομικευμένοι ψηφιακοί βοηθοί.

Ως ειδικός σε θέματα ασφάλειας και επιστήμονας δεδομένων, πιστεύουμε ότι οι άνθρωποι που έρχονται να βασιστούν σε αυτά τα AI θα πρέπει να τους εμπιστεύονται σιωπηρά για να πλοηγηθούν στην καθημερινή ζωή. Αυτό σημαίνει ότι θα πρέπει να είναι σίγουροι ότι οι AI δεν εργάζονται κρυφά για κάποιον άλλο. Στο διαδίκτυο, συσκευές και υπηρεσίες που φαίνεται να λειτουργούν για εσάς ήδη λειτουργούν κρυφά εναντίον σας. Smart TV σε κατασκοπεύει. Εφαρμογές τηλεφώνου συλλογή και πώληση των δεδομένων σας. Πολλές εφαρμογές και ιστότοποι σας χειραγωγούν μέσα από σκοτεινά μοτίβα, σχεδιαστικά στοιχεία που σκόπιμα παραπλανούν, εξαναγκάζουν ή εξαπατούν τους επισκέπτες του ιστότοπου. Αυτό είναι τον εποπτικό καπιταλισμό, και η τεχνητή νοημοσύνη διαμορφώνεται ώστε να είναι μέρος της. Η τεχνητή νοημοσύνη παίζει ρόλο στον καπιταλισμό επιτήρησης, ο οποίος συνοψίζεται στην κατασκοπεία σας για να κερδίσετε χρήματα από εσάς.

Στο σκοτάδι

Πολύ πιθανόν, θα μπορούσε να είναι πολύ χειρότερα με την τεχνητή νοημοσύνη. Για να είναι πραγματικά χρήσιμος αυτός ο ψηφιακός βοηθός AI, θα πρέπει να σας γνωρίζει πραγματικά. Καλύτερα από ό,τι σε γνωρίζει το τηλέφωνό σου. Καλύτερα από ό,τι σε γνωρίζει η αναζήτηση Google. Καλύτερα, ίσως, από το να σε γνωρίζουν οι στενοί σου φίλοι, οι στενοί σου σύντροφοι και ο θεραπευτής.

Δεν έχετε κανένα λόγο να εμπιστεύεστε τα κορυφαία εργαλεία τεχνητής νοημοσύνης του σήμερα. Αφήστε στην άκρη το ψευδαισθήσεις, τα επινοημένα «γεγονότα» που παράγουν το GPT και άλλα μεγάλα γλωσσικά μοντέλα. Αναμένουμε ότι θα καθαριστούν σε μεγάλο βαθμό καθώς βελτιώνεται η τεχνολογία τα επόμενα χρόνια.

Αλλά δεν ξέρετε πώς διαμορφώνονται οι παραμέτρους των AI: πώς έχουν εκπαιδευτεί, ποιες πληροφορίες τους έχουν δοθεί και ποιες οδηγίες έχουν λάβει εντολή να ακολουθήσουν. Για παράδειγμα, ερευνητές αποκάλυψε τους μυστικούς κανόνες που διέπουν τη συμπεριφορά του chatbot του Microsoft Bing. Είναι σε μεγάλο βαθμό καλοήθεις αλλά μπορούν να αλλάξουν ανά πάσα στιγμή.

Δημιουργία χρημάτων

Πολλά από αυτά τα AI δημιουργούνται και εκπαιδεύονται με τεράστια έξοδα από μερικά από τα μεγαλύτερα τεχνολογικά μονοπώλια. Προσφέρονται στους ανθρώπους για χρήση δωρεάν ή με πολύ χαμηλό κόστος. Αυτές οι εταιρείες θα χρειαστεί να τις αποκομίσουν χρήματα με κάποιο τρόπο. Και, όπως και με το υπόλοιπο Διαδίκτυο, αυτό κατά κάποιο τρόπο είναι πιθανό να περιλαμβάνει παρακολούθηση και χειραγώγηση.

Φανταστείτε να ζητάτε από το chatbot σας να προγραμματίσει τις επόμενες διακοπές σας. Επέλεξε μια συγκεκριμένη αεροπορική εταιρεία ή αλυσίδα ξενοδοχείων ή εστιατόριο επειδή ήταν ό,τι καλύτερο για εσάς ή επειδή ο κατασκευαστής του έλαβε ανταπόδοση από τις επιχειρήσεις; Όπως συμβαίνει με τα αποτελέσματα επί πληρωμή στην αναζήτηση Google, τις διαφημίσεις ειδήσεων στο Facebook και τις πληρωμένες τοποθετήσεις σε ερωτήματα του Amazon, αυτές οι πληρωμένες επιρροές είναι πιθανό να γίνουν πιο κρυφές με την πάροδο του χρόνου.

Εάν ζητάτε πολιτικές πληροφορίες από το chatbot σας, τα αποτελέσματα αλλοιώνονται από την πολιτική της εταιρείας που κατέχει το chatbot; Ή ο υποψήφιος που το πλήρωσε τα περισσότερα χρήματα; Ή ακόμη και οι απόψεις των δημογραφικών στοιχείων των ανθρώπων των οποίων τα δεδομένα χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου; Είναι ο πράκτορας AI σας κρυφά διπλός πράκτορας; Αυτή τη στιγμή, δεν υπάρχει τρόπος να το γνωρίζουμε.

Αξιόπιστος από το νόμο

Πιστεύουμε ότι οι άνθρωποι πρέπει να περιμένουν περισσότερα από την τεχνολογία και ότι οι εταιρείες τεχνολογίας και οι τεχνητές νοημοσύνης μπορούν να γίνουν πιο αξιόπιστες. Η πρόταση της Ευρωπαϊκής Ένωσης AI Act λαμβάνει ορισμένα σημαντικά βήματα, απαιτώντας διαφάνεια σχετικά με τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, μετριασμό για πιθανή μεροληψία, αποκάλυψη προβλέψιμων κινδύνων και υποβολή εκθέσεων για βιομηχανικά πρότυπα δοκιμές. Η Ευρωπαϊκή Ένωση προωθεί τη ρύθμιση της τεχνητής νοημοσύνης.

Τα περισσότερα υπάρχοντα AI αποτυγχάνουν να συμμορφωθούν με αυτήν την αναδυόμενη ευρωπαϊκή εντολή, και, παρά πρόσφατη προτροπή από τον ηγέτη της πλειοψηφίας της Γερουσίας Τσακ Σούμερ, οι ΗΠΑ είναι πολύ πίσω σε μια τέτοια ρύθμιση.

Τα AI του μέλλοντος θα πρέπει να είναι αξιόπιστα. Εκτός εάν και έως ότου η κυβέρνηση παράσχει ισχυρή προστασία των καταναλωτών για προϊόντα τεχνητής νοημοσύνης, οι άνθρωποι θα μπορούν μόνοι τους να μαντέψουν τους πιθανούς κινδύνους και τις προκαταλήψεις της τεχνητής νοημοσύνης και να μετριάσουν τις χειρότερες επιπτώσεις τους στις εμπειρίες των ανθρώπων μαζί τους.

Έτσι, όταν λαμβάνετε μια ταξιδιωτική σύσταση ή πολιτικές πληροφορίες από ένα εργαλείο τεχνητής νοημοσύνης, προσεγγίστε το με το ίδιο σκεπτικιστικό μάτι που θα κάνατε με μια διαφήμιση διαφημιστικού πίνακα ή έναν εθελοντή εκστρατείας. Παρ' όλη την τεχνολογική του μαγεία, το εργαλείο AI μπορεί να είναι λίγο περισσότερο από το ίδιο.Η Συνομιλία

Σχετικά με το Συγγραφέας

Μπρους Σνάιερ, Επίκουρος Λέκτορας Δημόσιας Πολιτικής, Σχολή Χάρβαρντ Κένεντι και Νέιθαν Σάντερς, Συνεργάτης, Berkman Klein Center for Internet & Society, Πανεπιστήμιο του Χάρβαρντ

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.