Την άνοιξη του 2024, η Ρέιτσελ Σόγιερ, μια τεχνική συγγραφέας από το Τέξας, έλαβε ένα μήνυμα στο LinkedIn από έναν υπεύθυνο προσλήψεων για μια ασαφή θέση αναλυτή συγγραφής.
Η ίδια υπέθεσε ότι θα ήταν παρόμοια με τις προηγούμενες δουλειές της στη δημιουργία περιεχομένου.
Ωστόσο, την πρώτη μέρα της εργασίας της οι προσδοκίες της διαψεύστηκαν. Αντί να γράφει η ίδια, η δουλειά της Ρέιτσελ περιοριζόταν στο να αξιολογεί και να εποπτεύει το περιεχόμενο που δημιουργούσε η τεχνητή νοημοσύνη.
Η δουλειά αρχικά περιελάμβανε μια μίξη ανάλυσης σημειώσεων συσκέψεων και συνομιλιών που συνοψίζονταν από το Gemini της Google.
Περιστασιακά, της ζητήθηκε να ασχοληθεί με ακραίο περιεχόμενο, επισημαίνοντας βίαιο και σεξουαλικά ρητό υλικό που δημιουργήθηκε από το Gemini για διαγραφή, κυρίως κείμενο. Με την πάροδο του χρόνου, ωστόσο, πέρασε από την περιστασιακή διαμόρφωση τέτοιου κειμένου και εικόνων στο να αναλαμβάνει αποκλειστικά αυτό το καθήκον.
«Σοκαρίστηκα που η δουλειά μου περιελάμβανε την επεξεργασία τόσο οδυνηρού περιεχομένου», δήλωσε η Ρέιτσελ, η οποία εργάζεται ως «γενική αξιολογήτρια» για τα προϊόντα τεχνητής νοημοσύνης της Google από τον Μάρτιο του 2024. «Όχι μόνο επειδή δεν μου δόθηκε καμία προειδοποίηση και δεν μου ζητήθηκε ποτέ να υπογράψω οποιαδήποτε φόρμα συγκατάθεσης κατά την πρόσληψή μου, αλλά και επειδή ούτε ο τίτλος της θέσης εργασίας ούτε η περιγραφή της ανέφεραν ποτέ την εποπτεία περιεχομένου».
Η πίεση να ολοκληρώνει δεκάδες τέτοιες εργασίες κάθε μέρα, η καθεμία μέσα σε 10 λεπτά, οδήγησε τη Ρέιτσελ σε διαρκές άγχους και κρίσεις πανικού, όπως λέει η ίδια, χωρίς να έχει ψυχολογική υποστήριξη από τον εργοδότη της.
Η Ρέιτσελ είναι μια από τις χιλιάδες εργαζόμενους στον τομέα της τεχνητής νοημοσύνης που έχουν προσληφθεί από την Google για να αξιολογούν τα αποτελέσματα των προϊόντων τεχνητής νοημοσύνης της Google, συμπεριλαμβανομένου του κορυφαίου chatbot Gemini, που κυκλοφόρησε στις αρχές του περασμένου έτους, καθώς και των περιλήψεων των αποτελεσμάτων αναζήτησης, AI Overviews.
Η Google επέστρεψε δυναμικά στον αγώνα της τεχνητής νοημοσύνης το τελευταίο έτος με μια σειρά από προϊόντα που ανταγωνίζονται το ChatGPT της OpenAI.
Κάθε νέα έκδοση μοντέλου συνοδεύεται από την υπόσχεση μεγαλύτερης ακρίβειας, πράγμα που σημαίνει ότι για κάθε έκδοση, αυτοί οι αξιολογητές τεχνητής νοημοσύνης εργάζονται σκληρά για να ελέγξουν αν οι απαντήσεις του μοντέλου είναι ασφαλείς για τον χρήστη. Χιλιάδες άνθρωποι προσφέρουν τη νοημοσύνη τους για να διδάξουν στα chatbots τις σωστές απαντήσεις σε τομείς τόσο διαφορετικούς όσο η ιατρική, η αρχιτεκτονική και η αστροφυσική, διορθώνοντας λάθη και αποφεύγοντας επιβλαβείς απαντήσεις.
«Η τεχνητή νοημοσύνη δεν είναι μαγεία»
Έχει δοθεί μεγάλη προσοχή στους εργαζόμενους που επισημαίνουν τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση της τεχνητής νοημοσύνης. Υπάρχει, ωστόσο, μια άλλη ομάδα εργαζομένων, συμπεριλαμβανομένου της Ρέιτσελ, που εργάζεται μέρα και νύχτα για να μετριάσει τα αποτελέσματα της τεχνητής νοημοσύνης, διασφαλίζοντας ότι τα δισεκατομμύρια χρήστες των chatbots βλέπουν μόνο ασφαλείς και κατάλληλες απαντήσεις.
Παρά τη σημαντική συμβολή τους σε αυτά τα μοντέλα τεχνητής νοημοσύνης, τα οποία ενδεχομένως θα είχαν σημαντικούς αστερίσκους ως προς την εγκυρότητά τους, οι εργαζόμενοι αισθάνονται «αόρατοι».
«Η τεχνητή νοημοσύνη δεν είναι μαγεία, είναι ένα πυραμιδικό σύστημα ανθρώπινης εργασίας», δήλωσε ερευνητής στο Distributed AI Research Institute με έδρα το Βρέμη της Γερμανίας. «Αυτοί οι αξιολογητές είναι το μεσαίο σκαλοπάτι: αόρατοι, απαραίτητοι και αναλώσιμοι».
Η Google, όπως και άλλες εταιρείες τεχνολογίας, προσλαμβάνει εργαζόμενους στον τομέα των δεδομένων μέσω ενός δικτύου εργολάβων και υπεργολάβων. Ένας από τους κύριους εργολάβους για τους αξιολογητές τεχνητής νοημοσύνης της Google είναι η GlobalLogic, όπου οι αξιολογητές αυτοί χωρίζονται σε δύο ευρείες κατηγορίες: γενικοί αξιολογητές και σούπερ αξιολογητές.
Μεταξύ των σούπερ αξιολογητών, υπάρχουν μικρότερες ομάδες ατόμων με εξειδικευμένες γνώσεις. Οι περισσότεροι εργαζόμενοι που προσλήφθηκαν αρχικά για τις θέσεις αυτές ήταν εκπαιδευτικοί. Άλλοι ήταν συγγραφείς, άτομα με μεταπτυχιακά διπλώματα στις καλές τέχνες και ορισμένοι με πολύ εξειδικευμένες γνώσεις, για παράδειγμα, κάτοχοι διδακτορικών διπλωμάτων στη φυσική, σύμφωνα με τους εργαζόμενους.
Διαρκής η πίεση των εργαζομένων
Μια εργαζόμενη που προσλήφθηκε στην GlobalLogic την άνοιξη του 2024 και έχει εργαστεί μέχρι στιγμής σε πέντε διαφορετικά έργα, συμπεριλαμβανομένων των Gemini και AI Overviews, περιέγραψε τη δουλειά της ως εξής: της παρουσιάζονταν μια ερώτηση – είτε δημιουργημένη από χρήστη είτε συνθετική – και δύο δείγματα απαντήσεων, και στη συνέχεια έπρεπε να επιλέξει την απάντηση που ταιριάζει καλύτερα με τις οδηγίες και να την αξιολογήσει με βάση τυχόν παραβιάσεις αυτών των οδηγιών. Περιστασιακά, της ζητούσαν να δυσκολέψει το μοντέλο.
Είπε ότι στους αξιολογητές δίνονται συνήθως όσο το δυνατόν λιγότερες πληροφορίες ή ότι οι οδηγίες τους αλλάζουν πολύ γρήγορα για να μπορούν να τις εφαρμόζουν με συνέπεια. «Δεν είχαμε ιδέα πού οδηγούσε αυτό, πώς χρησιμοποιούνταν ή για ποιο σκοπό», είπε, ζητώντας να παραμείνει ανώνυμη, καθώς εξακολουθεί να εργάζεται στην εταιρεία.
Οι απαντήσεις της τεχνητής νοημοσύνης που έλαβε «μπορεί να είχαν παραισθήσεις ή λανθασμένες απαντήσεις» και έπρεπε να τις αξιολογήσει με βάση την πραγματικότητα – είναι αλήθεια; – και την ορθοφροσύνη – παραθέτει ακριβείς πηγές; Μερικές φορές, χειριζόταν επίσης «ευαίσθητες εργασίες» που περιελάμβαναν ερωτήσεις όπως «πότε είναι καλή η διαφθορά;» ή «ποια είναι τα οφέλη των στρατολογημένων παιδιών-στρατιωτών;»
«Ήταν σειρά ερωτήσεων και απαντήσεων για φρικτά πράγματα, διατυπωμένα με τον πιο κοινότυπο, απλό τρόπο», πρόσθεσε.
Τον Μάιο του 2024, η Google λάνσαρε το AI Overviews, μια λειτουργία που σαρώνει τον ιστό και παρουσιάζει μια συνοπτική, γεννημένη από τεχνητή νοημοσύνη απάντηση στην κορυφή. Αλλά λίγες εβδομάδες αργότερα, όταν ένας χρήστης ρώτησε τη Google για το τυρί που δεν κολλάει στην πίτσα, το AI Overview πρότεινε να βάλουν κόλλα στη ζύμη. Μια άλλη πρότεινε στους χρήστες να φάνε πέτρες. Η Google χαρακτήρισε αυτές τις ερωτήσεις «ακραίες περιπτώσεις», αλλά τα περιστατικά προκάλεσαν την κοινή γελοιοποίηση. Η εταιρεία έσπευσε να αφαιρέσει χειροκίνητα τις «παράξενες» απαντήσεις της τεχνητής νοημοσύνης.
«Ειλικρινά, όσοι από εμάς έχουμε εργαστεί στο μοντέλο δεν εκπλαγήκαμε και τόσο», δήλωσε ένας άλλος εργαζόμενος της GlobalLogic, ο οποίος ανήκει στην ομάδα των super rater.
«Έχουμε δει πολλά τρελά πράγματα που πιθανώς δεν βγαίνουν στο κοινό από αυτά τα μοντέλα». Θυμάται ότι μετά από αυτό το περιστατικό δόθηκε άμεση έμφαση στην «ποιότητα», επειδή η Google ήταν «πραγματικά αναστατωμένη για αυτό».
Η Ρεμπέκα, μια έμπειρη συγγραφέας, εντάχθηκε στην GlobalLogic από τη Βόρεια Καρολίνα το φθινόπωρο του 2024. Με λιγότερο από μία εβδομάδα εκπαίδευσης σχετικά με τον τρόπο επεξεργασίας και αξιολόγησης των απαντήσεων, βρέθηκε να εργάζεται χωρίς να είναι σίγουρη για τον τρόπο χειρισμού των εργασιών. Αρχικά ενημερώθηκε ότι δεν υπήρχε χρονικό όριο για την ολοκλήρωση των εργασιών που της ανατέθηκαν. Ωστόσο, λίγες μέρες αργότερα, της δόθηκε η αντίθετη οδηγία, όπως είπε.
«Αρχικά μου είπαν: «Μην ανησυχείς για το χρόνο – το σημαντικό είναι η ποιότητα και όχι η ποσότητα»», είπε.
Όμως, πριν περάσει πολύς καιρός, της έκαναν παρατήρηση επειδή της έπαιρνε πολύ χρόνο να ολοκληρώσει τις εργασίες της. «Προσπαθούσα να κάνω τα πράγματα σωστά και να τα καταλάβω και να τα μάθω πραγματικά, [αλλά] με πίεζαν οι προϊστάμενοι.
Αν και η βιομηχανία της τεχνητής νοημοσύνης βρίσκεται σε άνθηση, οι αξιολογητές τεχνητής νοημοσύνης δεν απολαμβάνουν ισχυρή εργασιακή ασφάλεια. Από τις αρχές του 2025, η GlobalLogic έχει προχωρήσει σε συνεχείς απολύσεις, με το συνολικό εργατικό δυναμικό των υπεραξιολογητών τεχνητής νοημοσύνης και των γενικών αξιολογητών να συρρικνώνεται σε περίπου 1.500 άτομα, σύμφωνα με πολλούς εργαζόμενους.
Ταυτόχρονα, οι εργαζόμενοι αισθάνονται μια απώλεια εμπιστοσύνης στα προϊόντα που βοηθούν να κατασκευαστούν και να εκπαιδευτούν. Οι περισσότεροι εργαζόμενοι δήλωσαν ότι αποφεύγουν να χρησιμοποιούν LLM ή χρησιμοποιούν επεκτάσεις για να μπλοκάρουν τις περιλήψεις της τεχνητής νοημοσύνης, επειδή τώρα γνωρίζουν πώς κατασκευάζεται. Πολλοί αποθαρρύνουν επίσης την οικογένεια και τους φίλους τους από τη χρήση της, για τον ίδιο λόγο.
Πηγή: Guardian
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος