Μπορεί η τεχνολογία να μας σώσει από παραπληροφόρηση στα μέσα κοινωνικής δικτύωσης;

Αν λαμβάνετε τα νέα σας από τα μέσα κοινωνικής δικτύωσης, όπως οι περισσότεροι Αμερικανοί το κάνουν, είστε εκτεθειμένοι σε καθημερινή δόση φάρσες, φήμες, θεωρίες συνωμοσίας και παραπλανητικές ειδήσεις. Όταν όλα αναμειγνύονται με αξιόπιστες πληροφορίες από ειλικρινείς πηγές, η αλήθεια μπορεί να είναι πολύ δύσκολο να διακριθεί.

Στην πραγματικότητα, η ανάλυση της ερευνητικής μου ομάδας δεδομένων από το Πανεπιστήμιο Κολούμπια Αναφαινόμενος Ο ιχνηλάτης φημών υποδηλώνει ότι αυτό Η παραπληροφόρηση είναι εξίσου πιθανό να γίνει viral ως αξιόπιστες πληροφορίες.

Πολλοί ρωτούν αν αυτή η επίθεση ψηφιακής παραπληροφόρησης επηρέασε το αποτέλεσμα των αμερικανικών εκλογών του 2016. Η αλήθεια είναι ότι δεν ξέρουμε, αν και υπάρχουν λόγοι να πιστεύουμε ότι είναι απολύτως εφικτό, με βάση προηγούμενη ανάλυση και λογαριασμούς από άλλες χώρες. Κάθε παραπληροφόρηση συμβάλλει στη διαμόρφωση των απόψεών μας. Συνολικά, η ζημιά μπορεί να είναι πολύ πραγματική.

Ως ερευνητής σχετικά με τη διάδοση παραπληροφόρησης μέσω των μέσων κοινωνικής δικτύωσης, γνωρίζω ότι ο περιορισμός της ικανότητας των παραποιητών ειδήσεων να πωλούν διαφημίσεις, όπως ανακοινώθηκε πρόσφατα από Google και Facebook, είναι ένα βήμα προς τη σωστή κατεύθυνση. Αλλά δεν θα περιορίσει τις καταχρήσεις που οδηγούνται από πολιτικά κίνητρα.

Εκμετάλλευση κοινωνικών μέσων

Πριν από περίπου 10 χρόνια, οι συνάδελφοί μου και εγώ διευθύναμε ένα πείραμα στην οποία μάθαμε ότι το 72 τοις εκατό των φοιτητών κολεγίου εμπιστεύονται συνδέσμους που φαινόταν να προέρχονται από φίλους – ακόμη και στο σημείο να εισάγουν προσωπικά στοιχεία σύνδεσης σε ιστότοπους ηλεκτρονικού ψαρέματος. Αυτή η εκτεταμένη ευπάθεια πρότεινε μια άλλη μορφή κακόβουλης χειραγώγησης: Οι άνθρωποι μπορεί επίσης να πιστεύουν την παραπληροφόρηση που λαμβάνουν όταν κάνουν κλικ σε έναν σύνδεσμο από μια κοινωνική επαφή.

Για να εξερευνήσω αυτήν την ιδέα, δημιούργησα ένα ψεύτικη ιστοσελίδα με τυχαίες, δημιουργημένες από υπολογιστή κουτσομπολιά ειδήσεις – πράγματα όπως «Ο Celebrity X πιάστηκε στο κρεβάτι με τον Celebrity Y!» Οι επισκέπτες του ιστότοπου που αναζήτησαν ένα όνομα θα ενεργοποιούσαν το σενάριο για να δημιουργήσει αυτόματα μια ιστορία για το άτομο. Συμπεριέλαβα στον ιστότοπο μια δήλωση αποποίησης ευθυνών, λέγοντας ότι ο ιστότοπος περιείχε κείμενο χωρίς νόημα και επινοημένα «γεγονότα». Τοποθέτησα και διαφημίσεις στη σελίδα. Στο τέλος του μήνα, έλαβα μια επιταγή στο ταχυδρομείο με τα κέρδη από τις διαφημίσεις. Αυτή ήταν η απόδειξή μου: οι ψεύτικες ειδήσεις θα μπορούσαν να βγάλουν χρήματα μολύνοντας το Διαδίκτυο με ψέματα.


εσωτερικά εγγραφείτε γραφικό


Δυστυχώς, δεν ήμουν ο μόνος με αυτήν την ιδέα. Δέκα χρόνια αργότερα, έχουμε ένα βιομηχανία ψεύτικων ειδήσεων και ψηφιακή παραπληροφόρηση. Οι ιστότοποι Clickbait κατασκευάζουν φάρσες για να κερδίσουν χρήματα από διαφημίσεις, ενώ οι λεγόμενοι υπερκομματικοί ιστότοποι δημοσιεύουν και διαδίδουν φήμες και θεωρίες συνωμοσίας για να επηρεάσουν την κοινή γνώμη.

Αυτή η βιομηχανία ενισχύεται από το πόσο εύκολο είναι να δημιουργηθεί κοινωνικά bots, ψεύτικοι λογαριασμοί που ελέγχονται από λογισμικό που μοιάζουν με αληθινά άτομα και επομένως μπορούν να έχουν πραγματική επιρροή. Έρευνα στο δικό μου εργαστήριο αποκάλυψε πολλά παραδείγματα ψεύτικων εκστρατειών βάσης, που επίσης καλούνται πολιτικό αστροτουρφισμό.

Σε απάντηση, αναπτύξαμε το BotOrNot εργαλείο για τον εντοπισμό κοινωνικών ρομπότ. Δεν είναι τέλειο, αλλά αρκετά ακριβής να αποκαλύψει εκστρατείες πειθούς στα κινήματα Brexit και antivax. Χρησιμοποιώντας το BotOrNot, οι συνάδελφοί μας διαπίστωσαν ότι α μεγάλο μέρος της διαδικτυακής συνομιλίας για τις εκλογές του 2016 δημιουργήθηκε από ρομπότ.

Δημιουργία φυσαλίδων πληροφοριών

Εμείς οι άνθρωποι είμαστε ευάλωτοι στη χειραγώγηση από την ψηφιακή παραπληροφόρηση χάρη σε ένα περίπλοκο σύνολο κοινωνικών, γνωστικών, οικονομικών και αλγοριθμικών προκαταλήψεων. Μερικά από αυτά έχουν εξελιχθεί για καλούς λόγους: Η εμπιστοσύνη των σημάτων από τους κοινωνικούς μας κύκλους και η απόρριψη πληροφοριών που έρχονται σε αντίθεση με την εμπειρία μας μας εξυπηρέτησαν καλά όταν το είδος μας προσαρμόστηκε για να αποφεύγει τους θηρευτές. Αλλά στα σημερινά διαδικτυακά δίκτυα που συρρικνώνονται, μια σύνδεση κοινωνικού δικτύου με έναν συνωμοσιολόγο στην άλλη άκρη του πλανήτη δεν βοηθά στην ενημέρωση των απόψεών μου.

Η αντιγραφή των φίλων μας και το unfollow όσων έχουν διαφορετικές απόψεις, μας δίνουν ηχώ πολωμένο ότι οι ερευνητές μπορούν να πουν με μεγάλη ακρίβεια αν είστε φιλελεύθερος ή συντηρητικός κοιτάζοντας απλώς τους φίλους σου. Η δομή του δικτύου είναι έτσι πυκνός ότι οποιαδήποτε παραπληροφόρηση εξαπλώνεται σχεδόν ακαριαία μέσα στη μία ομάδα και είναι τόσο διαχωρισμένη που δεν φτάνει στην άλλη.

Μέσα στη φούσκα μας, εκτιθέμεθα επιλεκτικά σε πληροφορίες που ευθυγραμμίζονται με τις πεποιθήσεις μας. Αυτό είναι ένα ιδανικό σενάριο για τη μεγιστοποίηση της δέσμευσης, αλλά ένα επιζήμιο για την ανάπτυξη υγιούς σκεπτικισμού. Προκατάληψη επιβεβαίωσης μας οδηγεί να μοιραστούμε έναν τίτλο χωρίς καν να διαβάσω το άρθρο.

Το εργαστήριό μας πήρε ένα προσωπικό μάθημα σε αυτό όταν το δικό μας ερευνητικό έργο έγινε αντικείμενο α μοχθηρή εκστρατεία παραπληροφόρησης ενόψει των ενδιάμεσων εκλογών στις ΗΠΑ το 2014. Όταν ερευνήσαμε τι συνέβαινε, βρήκαμε ψεύτικες ειδήσεις σχετικά με την έρευνά μας που κοινοποιούνται κυρίως από χρήστες του Twitter σε έναν κομματικό θάλαμο ηχούς, μια μεγάλη και ομοιογενή κοινότητα πολιτικά ενεργών χρηστών. Αυτοί οι άνθρωποι ήταν γρήγοροι στο retweet και αδιαπέραστοι στην απομυθοποίηση πληροφοριών.

Ιογενές αναπόφευκτο

Η έρευνά μας δείχνει ότι δεδομένης της δομής των κοινωνικών μας δικτύων και της περιορισμένης προσοχής μας, είναι αναπόφευκτος ότι μερικοί μιμίδια θα γίνουν viral, ανεξάρτητα από την ποιότητά τους. Ακόμα κι αν τα άτομα τείνουν να μοιράζονται πληροφορίες υψηλότερης ποιότητας, το δίκτυο ως σύνολο δεν είναι αποτελεσματικό στη διάκριση μεταξύ αξιόπιστων και κατασκευασμένων πληροφοριών. Αυτό βοηθά να εξηγηθούν όλες οι ιογενείς φάρσες που παρατηρούμε στην άγρια ​​φύση.

Η οικονομία προσοχής φροντίζει για τα υπόλοιπα: Εάν δώσουμε προσοχή σε ένα συγκεκριμένο θέμα, θα παραχθούν περισσότερες πληροφορίες για αυτό το θέμα. Είναι φθηνότερο να κατασκευάζεις πληροφορίες και να τις μεταδίδεις ως γεγονός παρά να αναφέρεις την πραγματική αλήθεια. Και η κατασκευή μπορεί να προσαρμοστεί σε κάθε ομάδα: οι Συντηρητικοί διάβασαν ότι ο Πάπας υποστήριξε τον Τραμπ, οι φιλελεύθεροι διάβασαν ότι υποστήριξε την Κλίντον. Δεν έκανε τίποτα από τα δύο.

Παρακολουθήστε τους αλγόριθμους

Δεδομένου ότι δεν μπορούμε να δώσουμε προσοχή σε όλες τις αναρτήσεις στις ροές μας, οι αλγόριθμοι καθορίζουν τι βλέπουμε και τι όχι. Οι αλγόριθμοι που χρησιμοποιούνται από τις πλατφόρμες μέσων κοινωνικής δικτύωσης σήμερα έχουν σχεδιαστεί για να δίνουν προτεραιότητα στις ελκυστικές αναρτήσεις – αυτές στις οποίες είναι πιθανό να κάνουμε κλικ, να αντιδράσουμε και να μοιραστούμε. Αλλά μια πρόσφατη ανάλυση διαπίστωσε ότι οι σκόπιμα παραπλανητικές σελίδες έγιναν τουλάχιστον τόση διαδικτυακή κοινή χρήση και αντίδραση ως πραγματική είδηση.

Αυτή η αλγοριθμική προκατάληψη προς τη δέσμευση για την αλήθεια ενισχύει τις κοινωνικές και γνωστικές προκαταλήψεις μας. Ως αποτέλεσμα, όταν ακολουθούμε συνδέσμους που κοινοποιούνται στα μέσα κοινωνικής δικτύωσης, τείνουμε να επισκεπτόμαστε ένα μικρότερο πιο ομοιογενής σύνολο πηγών από ό,τι όταν πραγματοποιούμε αναζήτηση και επισκεπτόμαστε τα κορυφαία αποτελέσματα.

Η υπάρχουσα έρευνα δείχνει ότι η ύπαρξη σε θάλαμο ηχούς μπορεί να κάνει τους ανθρώπους πιο ευκολόπιστη σχετικά με την αποδοχή μη επαληθευμένων φημών. Αλλά πρέπει να μάθουμε πολλά περισσότερα για το πώς ανταποκρίνονται διαφορετικοί άνθρωποι σε μια μόνο φάρσα: Κάποιοι το μοιράζονται αμέσως, άλλοι το ελέγχουν πρώτα.

Είμαστε προσομοίωση κοινωνικού δικτύου να μελετήσει αυτόν τον ανταγωνισμό μεταξύ κοινής χρήσης και ελέγχου δεδομένων. Ελπίζουμε να βοηθήσουμε να ξεμπερδέψουμε αντικρουόμενα στοιχεία σχετικά όταν ο έλεγχος γεγονότων βοηθά να σταματήσουν οι φάρσες από την εξάπλωση και πότε δεν γίνεται. Τα προκαταρκτικά μας αποτελέσματα δείχνουν ότι όσο πιο διαχωρισμένη είναι η κοινότητα των πιστών της φάρσας, τόσο περισσότερο επιβιώνει η φάρσα. Και πάλι, δεν πρόκειται μόνο για το ίδιο το hoax αλλά και για το δίκτυο.

Πολλοί άνθρωποι προσπαθούν να καταλάβουν τι να κάνουμε για όλα αυτά. Σύμφωνα με το τελευταίο του Mark Zuckerberg ανακοίνωση, οι ομάδες του Facebook δοκιμάζουν πιθανές επιλογές. Και μια ομάδα φοιτητών κολεγίου πρότεινε έναν τρόπο να απλά ετικέτα σε κοινόχρηστους συνδέσμους ως «επαληθευμένο» ή όχι.

Ορισμένες λύσεις παραμένουν απρόσιτες, τουλάχιστον προς το παρόν. Για παράδειγμα, δεν μπορούμε ακόμη να διδάξουμε τα συστήματα τεχνητής νοημοσύνης πώς να το κάνουν διάκριση μεταξύ αλήθειας και ψεύδους. Αλλά μπορούμε να πούμε ότι οι αλγόριθμοι κατάταξης δίνουν μεγαλύτερη προτεραιότητα σε πιο αξιόπιστες πηγές.

Μελετώντας τη διάδοση ψευδών ειδήσεων

Μπορούμε να κάνουμε την καταπολέμηση των ψεύτικων ειδήσεων πιο αποτελεσματική, αν κατανοήσουμε καλύτερα πώς διαδίδονται κακές πληροφορίες. Εάν, για παράδειγμα, τα bots ευθύνονται για πολλά από τα ψέματα, μπορούμε να εστιάσουμε την προσοχή στον εντοπισμό τους. Εάν, εναλλακτικά, το πρόβλημα είναι με τους θαλάμους ηχούς, ίσως θα μπορούσαμε να σχεδιάσουμε συστήματα συστάσεων που δεν αποκλείουν τις διαφορετικές απόψεις.

Για το σκοπό αυτό, το εργαστήριό μας κατασκευάζει μια πλατφόρμα που ονομάζεται Φωτεινό να παρακολουθεί και να απεικονίζει τη διάδοση μη επαληθευμένων ισχυρισμών και τον αντίστοιχο έλεγχο γεγονότων στα μέσα κοινωνικής δικτύωσης. Αυτό θα μας δώσει δεδομένα πραγματικού κόσμου, με τα οποία μπορούμε να ενημερώσουμε τα προσομοιωμένα κοινωνικά μας δίκτυα. Στη συνέχεια, μπορούμε να δοκιμάσουμε πιθανές προσεγγίσεις για την καταπολέμηση των ψεύτικων ειδήσεων.

Το Hoaxy μπορεί επίσης να είναι σε θέση να δείξει στους ανθρώπους πόσο εύκολο είναι να παραποιούνται οι απόψεις τους από διαδικτυακές πληροφορίες – ακόμα και πόσο πιθανό είναι μερικοί από εμάς να μοιράζονται ψέματα στο διαδίκτυο. Το Hoaxy θα ενώσει μια σουίτα εργαλείων στο δικό μας Παρατηρητήριο στα κοινωνικά μέσα, που επιτρέπει σε οποιονδήποτε να δει πώς διαδίδονται τα μιμίδια στο Twitter. Η σύνδεση εργαλείων όπως αυτά με ανθρώπινους ελέγχους δεδομένων και πλατφόρμες μέσων κοινωνικής δικτύωσης θα μπορούσε να καταστήσει ευκολότερη την ελαχιστοποίηση των διπλών προσπαθειών και υποστήριξη ο ένας τον άλλον.

Είναι επιτακτική ανάγκη να επενδύσουμε πόρους στη μελέτη αυτού του φαινομένου. Χρειαζόμαστε όλα τα χέρια στο κατάστρωμα: επιστήμονες υπολογιστών, κοινωνικοί επιστήμονες, οικονομολόγοι, δημοσιογράφοι και εταίροι του κλάδου πρέπει συνεργαστούν να σταθούμε σταθερά απέναντι στη διάδοση παραπληροφόρησης.

Η Συνομιλία

Σχετικά με το Συγγραφέας

Filippo Menczer, Καθηγητής Επιστήμης Υπολογιστών και Πληροφορικής. Διευθυντής του Κέντρου Έρευνας Σύνθετων Δικτύων και Συστημάτων, Ιντιάνα Πανεπιστήμιο, Bloomington

Αυτό το άρθρο δημοσιεύθηκε αρχικά στις Η Συνομιλία. Διαβάστε το αρχικό άρθρο.

Σχετικές Βιβλία:

at InnerSelf Market και Amazon