Οι αλγόριθμοι του YouTube ενδέχεται να ριζοσπαστικοποιήσουν τους ανθρώπους - αλλά το πραγματικό πρόβλημα είναι ότι δεν έχουμε ιδέα πώς λειτουργούν Κ. Tempter / Shutterstock

Το YouTube δημιουργεί εξτρεμιστές; ΕΝΑ πρόσφατη μελέτη προκάλεσε επιχειρήματα μεταξύ επιστημόνων υποστηρίζοντας ότι οι αλγόριθμοι που τροφοδοτούν τον ιστότοπο δεν βοηθούν στη ριζοσπαστικοποίηση των ανθρώπων προτείνοντας ακόμη πιο ακραία βίντεο, όπως έχει προταθεί Τα τελευταία χρόνια.

Το έγγραφο, που υποβλήθηκε στο περιοδικό ανοιχτής πρόσβασης την Πρώτη Δευτέρα, αλλά δεν έχει επίσημα αξιολογηθεί από ομοτίμους, ανέλυσε προτάσεις βίντεο που έλαβαν διάφοροι τύποι καναλιών. Ισχυρίστηκε ότι ο αλγόριθμος του YouTube ευνοεί τα κύρια κανάλια μέσων έναντι ανεξάρτητου περιεχομένου, καταλήγοντας στο συμπέρασμα ότι η ριζοσπαστικοποίηση έχει να κάνει περισσότερο με τα άτομα που δημιουργούν επιβλαβές περιεχόμενο από τον αλγόριθμο του ιστότοπου.

Οι ειδικοί στον τομέα ήταν γρήγοροι ανταποκρινόμενη στη μελέτη, με κάποια κριτική τις μεθόδους του χαρτιού και άλλοι υποστηρίζουν ότι ο αλγόριθμος ήταν ένας από αυτούς πολλοί σημαντικοί παράγοντες και ότι μόνο η επιστήμη των δεδομένων δεν θα μας δώσει την απάντηση.

Το πρόβλημα με αυτήν τη συζήτηση είναι ότι δεν μπορούμε πραγματικά να απαντήσουμε στο ερώτημα του τι ρόλο παίζει ο αλγόριθμος του YouTube στη ριζοσπαστικοποίηση των ανθρώπων επειδή δεν καταλαβαίνουμε πώς λειτουργεί. Και αυτό είναι απλώς ένα σύμπτωμα ενός πολύ ευρύτερου προβλήματος. Αυτοί οι αλγόριθμοι διαδραματίζουν αυξανόμενο ρόλο στην καθημερινή μας ζωή, αλλά στερούνται οποιουδήποτε είδους διαφάνειας.

Είναι δύσκολο να υποστηρίξουμε ότι το YouTube δεν παίζει ρόλο στη ριζοσπαστικοποίηση. Αυτό επισημάνθηκε για πρώτη φορά από τον κοινωνιολόγο τεχνολογίας Zeynep Tufekci, ο οποίος παρουσίασε πώς τα προτεινόμενα βίντεο οδηγούν σταδιακά τους χρήστες προς πιο ακραίο περιεχόμενο. Σύμφωνα με τα λόγια του Tufekci, βίντεο σχετικά με τζόκινγκ οδηγούν σε βίντεο σχετικά με την εκτέλεση υπεραμαραθώνων, βίντεο σχετικά με εμβόλια οδηγούν σε θεωρίες συνωμοσίας και βίντεο σχετικά με την πολιτική οδηγούν σε "αρνήσεις του Ολοκαυτώματος και άλλο ενοχλητικό περιεχόμενο".


εσωτερικά εγγραφείτε γραφικό


Αυτό έχει γραφτεί επίσης λεπτομερώς από τον πρώην υπάλληλο του YouTube Guillaume Chaslot που εργάστηκε στον αλγόριθμο προτάσεων του ιστότοπου. Από τότε που αποχώρησε από την εταιρεία, ο Chaslot συνέχισε να προσπαθεί να κάνει αυτές τις συστάσεις Πιο διαφανή. Λέει ότι οι προτάσεις του YouTube είναι μεροληπτικές θεωρίες συνωμοσίας και πραγματικά ανακριβή βίντεο, παρόλα αυτά κάνουν τους ανθρώπους να περνούν περισσότερο χρόνο στον ιστότοπο.

Στην πραγματικότητα, μεγιστοποίηση του χρόνου παρακολούθησης είναι το βασικό σημείο των αλγορίθμων του YouTube και αυτό ενθαρρύνει τους δημιουργούς βίντεο να παλέψουν για την προσοχή με οποιονδήποτε δυνατό τρόπο. Η καθαρή εταιρεία έλλειψη διαφάνειας για το πώς ακριβώς λειτουργεί αυτό καθιστά σχεδόν αδύνατο να καταπολεμηθεί η ριζοσπαστικοποίηση στον ιστότοπο. Εξάλλου, χωρίς διαφάνεια, είναι δύσκολο να γνωρίζουμε τι μπορεί να αλλάξει για τη βελτίωση της κατάστασης.

Οι αλγόριθμοι του YouTube ενδέχεται να ριζοσπαστικοποιήσουν τους ανθρώπους - αλλά το πραγματικό πρόβλημα είναι ότι δεν έχουμε ιδέα πώς λειτουργούν Πώς λειτουργεί ο αλγόριθμος του YouTube παραμένει ένα μυστήριο. Ποιος είναι ο Danny / Shutterstock

Όμως το YouTube δεν είναι ασυνήθιστο από αυτή την άποψη. Η έλλειψη διαφάνειας σχετικά με τον τρόπο λειτουργίας των αλγορίθμων συμβαίνει συνήθως κάθε φορά που χρησιμοποιούνται σε μεγάλα συστήματα, είτε από ιδιωτικές εταιρείες είτε από δημόσιους φορείς. Εκτός από το να αποφασίσετε ποιο βίντεο θα σας δείξει στη συνέχεια, οι αλγόριθμοι μηχανικής μάθησης είναι πλέον συνηθισμένοι τοποθετήστε τα παιδιά στα σχολεία, αποφασίζω για ποινές φυλάκισης, καθορίσει πιστωτικά αποτελέσματα και ποσοστά ασφάλισης, καθώς και τη μοίρα του μεταναστών, υποψήφιοι για εργασία και υποψήφιοι πανεπιστημίου. Και συνήθως δεν καταλαβαίνουμε πώς αυτά τα συστήματα λαμβάνουν τις αποφάσεις τους.

Οι ερευνητές έχουν βρει δημιουργικούς τρόπους για να δείξουν την επίδραση αυτών των αλγορίθμων στην κοινωνία, είτε εξετάζοντας το άνοδος του αντιδραστικού δικαιώματος ή η εξάπλωση θεωριών συνωμοσίας στο YouTube ή δείχνοντας πώς οι μηχανές αναζήτησης αντικατοπτρίζουν τις ρατσιστικές προκαταλήψεις των ανθρώπων που τα δημιουργούν.

Τα συστήματα μηχανικής μάθησης είναι συνήθως μεγάλα, περίπλοκα και αδιαφανή. Κατάλληλα, περιγράφονται συχνά ως μαύρα κουτιά, όπου εισέρχονται πληροφορίες και βγαίνουν πληροφορίες ή ενέργειες, αλλά κανείς δεν μπορεί να δει τι συμβαίνει στο μεταξύ. Αυτό σημαίνει ότι, καθώς δεν γνωρίζουμε ακριβώς πώς λειτουργούν οι αλγόριθμοι όπως το σύστημα προτάσεων του YouTube, προσπαθώντας να βρούμε πώς λειτουργεί ο ιστότοπος θα ήταν σαν να προσπαθούμε να κατανοήσουμε ένα αυτοκίνητο χωρίς να ανοίξουμε το καπό.

Με τη σειρά του, αυτό σημαίνει ότι η προσπάθεια σύνταξης νόμων για τη ρύθμιση των αλγορίθμων που πρέπει ή δεν πρέπει να γίνει γίνεται τυφλή διαδικασία ή δοκιμή και σφάλμα. Αυτό συμβαίνει με το YouTube και με πολλούς άλλους αλγόριθμους μηχανικής μάθησης. Προσπαθούμε να έχουμε λόγο στα αποτελέσματά τους, χωρίς πραγματική κατανόηση του πώς λειτουργούν πραγματικά. Πρέπει να ανοίξουμε αυτές τις πατενταρισμένες τεχνολογίες, ή τουλάχιστον να τις κάνουμε αρκετά διαφανείς ώστε να τις ρυθμίσουμε.

Επεξηγήσεις και δοκιμές

Ένας τρόπος για να γίνει αυτό θα ήταν η παροχή αλγορίθμων αντιπαραδείξεις εξηγήσεις μαζί με τις αποφάσεις τους. Αυτό σημαίνει την επεξεργασία των ελάχιστων συνθηκών που απαιτούνται για τη λήψη διαφορετικής απόφασης από τον αλγόριθμο, χωρίς να περιγραφεί η πλήρης λογική του. Για παράδειγμα, ένας αλγόριθμος που λαμβάνει αποφάσεις σχετικά με τα τραπεζικά δάνεια μπορεί να παράγει ένα αποτέλεσμα που να λέει ότι «εάν ήσασταν άνω των 18 ετών και δεν είχατε προηγούμενο χρέος, θα έχετε το τραπεζικό σας δάνειο να γίνει αποδεκτό» Αλλά αυτό μπορεί να είναι δύσκολο να γίνει με το YouTube και άλλους ιστότοπους που χρησιμοποιούν αλγόριθμους προτάσεων, καθώς θεωρητικά μπορεί να προτείνεται οποιοδήποτε βίντεο στην πλατφόρμα σε οποιοδήποτε σημείο.

Ένα άλλο ισχυρό εργαλείο είναι ο έλεγχος και ο έλεγχος αλγορίθμων, ο οποίος ήταν ιδιαίτερα χρήσιμος στη διάγνωση μεροληπτικών αλγορίθμων. Σε μια πρόσφατη περίπτωση, μια επαγγελματική εταιρεία παρακολούθησης βιογραφικών ανακάλυψε ότι ο αλγόριθμός της ήταν ιεράρχηση δύο παραγόντων ως καλύτεροι προγνωστικοί παράγοντες για την απόδοση της εργασίας: αν το όνομα του υποψηφίου ήταν Jared και αν έπαιζαν λακρός στο γυμνάσιο. Αυτό συμβαίνει όταν το μηχάνημα δεν παρακολουθείται.

Σε αυτήν την περίπτωση, ο αλγόριθμος ανίχνευσης βιογραφικών παρατήρησε ότι οι λευκοί άντρες είχαν περισσότερες πιθανότητες να προσληφθούν και είχαν βρει συσχετιστικά χαρακτηριστικά πληρεξούσιου (όπως να ονομάζεται Jared ή να παίζει λακρός) που υπάρχουν στους υποψηφίους που προσλαμβάνονται. Με το YouTube, ο έλεγχος αλγορίθμων θα μπορούσε να σας βοηθήσει να κατανοήσετε τι είδους βίντεο έχουν προτεραιότητα για σύσταση - και ίσως να διευκολύνουν τη συζήτηση σχετικά με το εάν οι προτάσεις του YouTube συμβάλλουν στη ριζοσπαστικοποίηση ή όχι.

Η εισαγωγή αντιφατικών εξηγήσεων ή η χρήση αλγορίθμου ελέγχου είναι μια δύσκολη, δαπανηρή διαδικασία. Αλλά είναι σημαντικό, γιατί η εναλλακτική είναι χειρότερη. Εάν οι αλγόριθμοι δεν ελέγχονται και δεν ρυθμίζονται, θα μπορούσαμε να δούμε μια σταδιακή ερμηνεία θεωρητικών συνωμοσίας και εξτρεμιστών στα μέσα μας, και η προσοχή μας ελέγχεται από όποιον μπορεί να παράγει το πιο κερδοφόρο περιεχόμενο.Η Συνομιλία

Σχετικά με το Συγγραφέας

Chico Q. Camargo, Μεταδιδακτορικός Ερευνητής στην Επιστήμη Δεδομένων, Πανεπιστήμιο της Οξφόρδης

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.