ChatGPT: Κενυάτες εργαζόμενοι πληρώνονταν 2 δολάρια την ώρα για να επισημαίνουν σοκαριστικό και παράνομο περιεχόμενο

Array

Επί μήνες, η εταιρεία τεχνητής νοημοσύνης Sama, με έδρα το Σαν Φρανσίσκο, συνεργαζόταν με την OpenAI, την εταιρεία πίσω από το ChatGPT, για την αναγνώριση και την επισήμανση ευαίσθητων εικόνων και κειμένων – δεδομένα που χρησιμοποιούνται για την εκπαίδευση του ChatGPT.

Όπως αναφέρει το Business Insider, τον Φεβρουάριο του 2022, η Sama – η οποία απασχολεί εργαζόμενους στην Κένυα, Ουγκάντα και Ινδία– τερμάτισε τη συνεργασία της με την OpenAI αφού ανακάλυψε ότι είχε ζητήσει και λάβει δυνητικά παράνομο περιεχόμενο για ένα έργο εκπαίδευσης τεχνητής νοημοσύνης που δεν σχετιζόταν με το ChatGPT, σύμφωνα με αποκλειστική έρευνα που δημοσίευσε χθες (18/1) το αμερικανικό περιοδικό TIME. Εν τω μεταξύ, η OpenAI επιβεβαίωσε ότι προσέλαβε εργαζόμενους από την Κένυα για να βοηθήσουν στην ανάπτυξη ενός εργαλείου που επισημαίνει προβληματικό περιεχόμενο, σύμφωνα με το TΙΜΕ.

Το TΙΜΕ αποκάλυψε επίσης ότι οι εξωτερικοί συνεργάτες της OpenAI από την Κένυα, κέρδιζαν λιγότερα από δύο δολάρια την ώρα για να κάνουν το ChatGPT ασφαλέστερο για τους χρήστες. Συγκεκριμένα, οι εργαζόμενοι που ήταν υπεύθυνοι για το έργο αυτό, αμοίβονταν με περίπου 1,32 και 2 δολάρια την ώρα, ανάλογα με την εμπειρία και τα προσόντα τους.

Το λογισμικό της τεχνητής νοημοσύνης ChatGPT είναι σε θέση να συντάξει ένα κείμενο με βάση μια ερώτηση που του θέτετε γραπτώς. Τα αποτελέσματα είναι συχνά εντυπωσιακά. Για να επιτευχθεί αυτό το αποτέλεσμα, το bot έπρεπε να εκπαιδευτεί με ένα μεγάλο όγκο δεδομένων. Όμως, το δημοσίευμα του TΙΜΕ τονίζει ότι «τμήματα του Διαδικτύου είναι γεμάτα τοξικότητα και προκαταλήψεις. Το GPT-3, ο προκάτοχος του ChatGPT ήταν ήδη εντυπωσιακό στη λειτουργία του, αλλά ήταν επίσης επιρρεπές σε βίαια, σεξιστικά και ρατσιστικά σχόλια».

Σύμφωνα με το άρθρο του αμερικανικού περιοδικού, η εταιρεία OpenAI εφάρμοσε ένα σύστημα ασφαλείας που λειτουργεί με τεχνητή νοημοσύνη για να «περιορίσει αυτή τη ζημιά, παράγοντας ένα chatbot κατάλληλο για καθημερινή χρήση». Αυτό το σύστημα ασφαλείας είναι εμπνευσμένο από το έργο άλλων εταιρειών κοινωνικής δικτύωσης «οι οποίες είχαν ήδη δείξει ότι ήταν δυνατό να αναπτύξουν τεχνητή νοημοσύνη που θα μπορούσε να εντοπίσει τοξικές συμπεριφορές, όπως η ρητορική μίσους, προκειμένου να τις απομακρύνουν από τις πλατφόρμες τους».

Για να μπορεί να εντοπίζει, να φιλτράρει και να εμποδίζει την εμφάνιση τέτοιων περιστατικών, το σύστημα έπρεπε να εκπαιδευτεί με παραδείγματα που χαρακτηρίζονταν ως βίαια και συχνά σχετίζονταν με σεξουαλική κακοποίηση. Στη συνέχεια, η OpenAI έστειλε δεκάδες χιλιάδες αποσπάσματα κειμένων σε μια εταιρεία στην Κένυα.

«Ορισμένα  από τα αποσπάσματα κειμένου περιέγραφαν φρικιαστικές καταστάσεις με ανατριχιαστικές λεπτομέρειες, όπως σεξουαλική κακοποίηση παιδιών, κτηνοβασία, δολοφονίες, αυτοκτονίες, βασανιστήρια, αυτοακρωτηριασμούς και αιμομιξία», αναφέρει το άρθρο.

Τέσσερις εργαζόμενοι συμφώνησαν να μιλήσουν στους δημοσιογράφους του ΤΙΜΕ υπό τον όρο της ανωνυμίας, «επειδή φοβόντουσαν μη χάσουν τα προς το ζην». Ένας υπάλληλος που ήταν υπεύθυνος για την ανάγνωση και την επισήμανση των κειμένων αυτών είπε ότι η όλη εμπειρία ήταν βασανιστική. Οι υπαλληλοι της Sama είπαν επίσης ότι ήταν υποχρεωμένοι να διαβάζουν 150 έως 200 αποσπάσματα κειμένων σε κάθε 9ωρη βάρδια τους. Ένας αριθμός που αμφισβητεί η SAMA, η οποία υπέγραψε τρεις συμβάσεις συνολικού ύψους 200.000 δολαρίων για την εκτέλεση του συγκεκριμένου έργου.

ΠΗΓΗ: ΤΙΜΕ, Business Insider

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος