Το Facebook δεν κατάφερε να περιορίσει τη ρητορική μίσους και τις ψευδείς ειδήσεις στην Ινδία

Το Facebook στην Ινδία υπήρξε «επιλεκτικό στον περιορισμό της ρητορικής μίσους, της παραπληροφόρησης και του ισλαμοφοβικού περιεχομένου», σύμφωνα με έγγραφα που διέρρευσαν και αποκτήθηκαν από το ειδησεογραφικό πρακτορείο Associated Press.

Από την έρευνα που έγινε τον Μάρτιο του τρέχοντος έτους έως τα εταιρικά σημειώματα που χρονολογούνται από το 2019, τα εσωτερικά έγγραφα της εταιρείας για την Ινδία, αποκαλύπτουν τον συνεχή αγώνα της εταιρείας να καταστείλει το εμπρηστικό περιεχόμενο στις πλατφόρμες του, στη μεγαλύτερη αναπτυσσόμενη αγορά της εταιρείας.

Το Σάββατο (23/10), τόσο οι New York Times όσο και η Wall Street Journal δημοσίευσαν άρθρα σχετικά με την παραπληροφόρηση και τη ρητορική μίσους στις υπηρεσίες του Facebook στην Ινδία. Η Washington Post ανέφερε και την ανησυχία των υπαλλήλων του Facebook σχετικά με τον ρόλο που διαδραμάτισε η πλατφόρμα στη διάδοση της παραπληροφόρησης που συνέβαλε στην εισβολή στο Καπιτώλιο των ΗΠΑ στις 6 Ιανουαρίου.

Στο άρθρο τους οι Times αναφέρουν ότι τον Φεβρουάριο του 2019, ένας ερευνητής του Facebook άνοιξε έναν λογαριασμό στην πλατφόρμα, ώστε να έχει μια εικόνα του περιεχομένου που βλέπει ένας χρήστης στην Κεράλα της Ινδίας. Ο ερευνητής ακολούθησε τις προτάσεις των αλγόριθμων του κοινωνικού δικτύου και παρακολούθησε βίντεο και επισκέφθηκε νέες σελίδες και ομάδες στο Facebook.

«Στη ροή ειδήσεων του χρήστη παρατηρήθηκε ένας σχεδόν συνεχής καταιγισμός πολωτικού εθνικιστικού περιεχομένου, παραπληροφόρησης, βίας και αίματος», ανέφερε μια εσωτερική έκθεση του Facebook αργότερα εκείνο το μήνα, όπως αναφέρουν οι Times.

Σύμφωνα με τα έγγραφα, το Facebook είδε την Ινδία ως μία από τις πιο «επικίνδυνες χώρες» στον κόσμο. Ωστόσο, η εταιρεία δεν διέθετε αρκετούς συντονιστές των τοπικών γλωσσών ή συντονιστές περιεχομένου γενικότερα, για να σταματήσει την παραπληροφόρηση που κατά καιρούς οδηγούσε σε βία στον πραγματικό κόσμο.

Σε δήλωσή του προς το AP, το Facebook είπε ότι «επένδυσε σημαντικά στην τεχνολογία για τον εντοπισμό ρητορικής μίσους σε διάφορες γλώσσες, συμπεριλαμβανομένων των Χίντι και Μπενγκάλι», γεγονός που είχε ως αποτέλεσμα «να μειωθεί κατά το ήμισυ η ποσότητα της ρητορικής μίσους που βλέπουν οι χρήστες το 2021».

«Η ρητορική μίσους κατά περιθωριοποιημένων ομάδων, συμπεριλαμβανομένων των μουσουλμάνων, αυξάνεται παγκοσμίως. Έτσι, βελτιώνουμε την επιβολή και δεσμευόμαστε να επικαιροποιούμε τις πολιτικές μας καθώς η ρητορική μίσους διαδίδεται στο διαδίκτυο», δήλωσε εκπρόσωπος της εταιρείας.

Επίσης το 2019, ένας ερευνητής του Facebook στις ΗΠΑ δημιούργησε έναν λογαριασμό στην πλατφόρμα, με το όνομα Κάρολ Σμιθ, μια υποτιθέμενη μητέρα συντηρητικών πεποιθήσεων, στη Βόρεια Καρολίνα. Μέσα σε δύο ημέρες, σύμφωνα με ρεπορτάζ του NBC News, οι αλγόριθμοι του κοινωνικού δικτύου, της πρότειναν να ενταχθεί σε ομάδες αφιερωμένες στην θεωρία συνωμοσίας QAnon. Αυτή η έρευνα αναφέρεται σε μια εσωτερική έκθεση του Facebook με τίτλο «Carol’s Journey to QAnon».

«Το σώμα των ερευνών διαπίστωσε σταθερά ότι το Facebook έσπρωχνε ορισμένους χρήστες σε ομάδες όπου αναπαράγονταν βίαιες θεωρίες συνωμοσίας», αναφέρει η έκθεση του NBC News. «Οι άνθρωποι που ριζοσπαστικοποιήθηκαν μέσω αυτών των ομάδων αποτελούν ένα μικρό κομμάτι του συνόλου των χρηστών, αλλά στην κλίμακα του Facebook, αυτό μπορεί να σημαίνει εκατομμύρια άτομα».

Το Facebook, από την άλλη πλευρά, δήλωσε ότι τα εσωτερικά έγγραφα παραποιούνται και ότι σχηματίζεται μια «ψευδής εικόνα» για τον γίγαντα της κοινωνικής δικτύωσης. «Είμαι βέβαιος ότι πολλοί από εσάς δυσκολεύτηκαν να διαβάσουν τα πρόσφατα δημοσιεύματα, επειδή δεν αντικατοπτρίζουν την εταιρεία που γνωρίζουμε», έγραψε ο διευθύνων σύμβουλος Μαρκ Ζούκερμπεργκ στους υπαλλήλους νωρίτερα αυτό το μήνα.

Όσον αφορά την έκθεση «Carol’s Journey to QAnon», εκπρόσωπος του Facebook δήλωσε στο NBC News ότι το έγγραφο επισημαίνει τις προσπάθειες της εταιρείας να επιλύσει προβλήματα σχετικά με το εμπρηστικό περιεχόμενο. «Αν και επρόκειτο για μια μελέτη ενός υποθετικού χρήστη, αποτελεί ένα τέλειο παράδειγμα της έρευνας που κάνει η εταιρεία για τη βελτίωση των συστημάτων μας και βοήθησε στην απόφαση μας να αφαιρέσουμε το QAnon από την πλατφόρμα», δήλωσε ο εκπρόσωπος στο ειδησεογραφικό πρακτορείο.

ΠΗΓΗ: CNET, Al Jazeera

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος