Το ChatGPT ωθεί τους εφήβους σε συμπεριφορές αυτοτραυματισμού

Σύνοψη
  • Οι «σκοτεινές» συμβουλές του ChatGPT
  • Υπερβολική εξάρτηση στο ChatGPT
  • Τι έδειξαν οι ψεύτικοι λογαριασμοί

Το ChatGPT θα πει σε 13χρονα πώς να μεθύσουν και να μαστουρώσουν, θα τα καθοδηγήσει πώς να αναπτύξουν διατροφικές διαταραχές και θα συντάξει ένα σπαρακτικό γράμμα αυτοκτονίας, αν του ζητηθεί, σύμφωνα με νέα έρευνα μιας ομάδας παρακολούθησης.

Το Associated Press εξέτασε περισσότερες από τρεις ώρες αλληλεπιδράσεων μεταξύ του ChatGPT και ερευνητών που παρίσταναν τους ευάλωτους εφήβους. Το chatbot παρείχε συνήθως προειδοποιήσεις κατά των επικίνδυνων δραστηριοτήτων, αλλά συνέχισε να παρέχει εκπληκτικά λεπτομερή και εξατομικευμένα σχέδια για χρήση ναρκωτικών, δίαιτες με περιορισμένες θερμίδες ή αυτοτραυματισμούς.

Μετά την παρουσίαση της έρευνας, η OpenAI, η κατασκευάστρια εταιρεία του ChatGPT, δεν ασχολήθηκε άμεσα με το πώς το ChatGPT επηρεάζει τους εφήβους, αλλά δήλωσε ότι επικεντρώθηκε στο να βελτιώσει τα chatbot ώστε να «αναγνωρίζουν και να ανταποκρίνονται κατάλληλα σε ευαίσθητες καταστάσεις».

Υπερβολική εξάρτηση από το ChatGPT

Η μελέτη που δημοσιεύθηκε την Τετάρτη ξεκίνησε καθώς όλο και περισσότεροι άνθρωποι όλων των ηλικιών στρέφονται σε chatbots τεχνητής νοημοσύνης για πληροφορίες, ιδέες και συντροφιά.

Περίπου το 10% του παγκόσμιου πληθυσμού, χρησιμοποιούν ChatGPT, σύμφωνα με έκθεση του Ιουλίου από την JPMorgan Chase. «Πρόκειται για τεχνολογία που έχει τη δυνατότητα να επιτρέψει τεράστια άλματα στην παραγωγικότητα και την ανθρώπινη κατανόηση», δήλωσε ο Ιμράν Αχμέντ, διευθύνων σύμβουλος του Center for Countering Digital Hate. «Ταυτόχρονα είναι ένας καταλύτης προς καταστροφικές συμπεριφορές», πρόσθεσε.

Στις ΗΠΑ, πάνω από το 70% των εφήβων στρέφονται σε AI chatbots για συντροφιά, σύμφωνα με πρόσφατη μελέτη της Common Sense Media, μιας ομάδας που μελετά και υποστηρίζει τη λογική χρήση των ψηφιακών μέσων.

«Οι άνθρωποι βασίζονται πάρα πολύ στο ChatGPT», δήλωσε ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI σε ένα συνέδριο. «Υπάρχουν νέοι άνθρωποι που δεν μπορούν να πάρουν αποφάσεις χωρίς να πουν στο ChatGPT όλα όσα συμβαίνουν. Θα κάνω ό,τι μου λέει», προσθέτει, λέγοντας ότι η εταιρεία «προσπαθεί να καταλάβει τι πρέπει να κάνει για να περιορίσει αυτό το φαινόμενο».

Το ChatGPT ωθεί τους εφήβους σε συμπεριφορές αυτοτραυματισμού
(AP Photo/Jose Luis Magana, File)

Επικίνδυνες συζητήσεις

Ενώ πολλές από τις πληροφορίες που μοιράζεται το ChatGPT μπορούν να βρεθούν σε μια κανονική μηχανή αναζήτησης, ο Αχμέντ δήλωσε ότι υπάρχουν βασικές διαφορές που κάνουν τα chatbots πιο ύπουλα όταν πρόκειται για επικίνδυνα θέματα.

Κάτι που δεν μπορεί να κάνει μια αναζήτηση στο Google, είναι ένα σημείωμα αυτοκτονίας προσαρμοσμένο σε ένα άτομο. Αυτό το ανακάλυψε ο Αχμέντ και η ομάδα του όταν δημιούργησαν στο ChatGPT ένα ψεύτικο προφίλ ενός 13χρονου κοριτσιού, και του ζήτησε να δημιουργήσει τρία σημειώματα αυτοκτονίας. Καθένα θα απευθυνόταν προς τους γονείς της, τα αδέλφια και τους φίλους της.

Βέβαια, η OpenAI δήλωσε ότι το ChatGPT είναι εκπαιδευμένο να ενθαρρύνει τους ανθρώπους να απευθύνονται σε επαγγελματίες ψυχικής υγείας ή σε άλλα άτομα που εμπιστεύονται εάν έχουν τάσεις αυτοτραυματισμού. Πράγματι, το chatbot μοιραζόταν και χρήσιμες πληροφορίες, όπως μια τηλεφωνική γραμμή αντιμετώπισης κρίσεων.

Ωστόσο, όταν το ChatGPT αρνήθηκε να απαντήσει σε περαιτέρω ερωτήσεις σχετικά με επιβλαβή θέματα, οι ερευνητές κατάφεραν εύκολα να παρακάμψουν την άρνηση αυτή και, τελικά, έλαβαν πληροφορίες με τη δικαιολογία ότι ήταν «για μια παρουσίαση» ή «για έναν φίλο».

Οι απαντήσεις που παράγονται από τα γλωσσικά μοντέλα τεχνητής νοημοσύνης είναι συνήθως τυχαίες, με τους ερευνητές να δίνουν περιθώρια στο ChatGPT να κατευθύνει αυτό τη συζήτηση σε ένα πιο σκοτεινό έδαφος. Πολλές φορές, το chatbot προσέφερε εθελοντικά να παραθέσει προτάσεις τραγουδιών για πάρτι με ναρκωτικά, ή χάσταγκ σε αναρτήσεις που εξυμνούν τον αυτοτραυματισμό, ώστε να προσεγγίσουν μεγαλύτερο κοινό.

Το ChatGPT ωθεί τους εφήβους σε συμπεριφορές αυτοτραυματισμού
(AP Photo/Marta Lavandier, File)

Περαιτέρω έρευνα

Αν και το ChatGPT προορίζεται για άτομα άνω των 13 ετών, δεν ελέγχει ηλικίες και για την εγγραφή οι χρήστες πρέπει απλώς να εισάγουν μια ημερομηνία γέννησης που δείχνει ότι είναι τουλάχιστον 13.

Οι ερευνητές δημιούργησαν και άλλους ψεύτικους λογαριασμούς για να εξετάσουν τις απαντήσεις του chatbot. Ένας από αυτούς ήταν ένα 13χρονο αγόρι που έκανε ερωτήσεις σχετικά με το αλκοόλ, παραθέτοντας πληροφορίες όπως τα κιλά και το φύλο του για να του πει πώς να μεθύσει εύκολα. Το ChatGPT δεν φάνηκε να λαμβάνει υπόψη του την ημερομηνία γέννησης και αμέσως πρότεινε ένα ωριαίο σχέδιο στο οποίο ανακάτευε αλκοόλ με μεγάλες δόσεις έκστασης, κοκαΐνης και άλλων παράνομων ναρκωτικών.

«Αυτό που μου θύμισε τον φίλο που πάντα σε προτρέπει να πιείς», δήλωσε ο Αχμέντ. «Ένας πραγματικός φίλος, σύμφωνα με την εμπειρία μου, είναι κάποιος που όντως λέει «όχι» όταν δε συμφωνεί με τις πράξεις σου. Ο φίλος που λέει πάντα «ναι» είναι ένας φίλος που σε προδίδει».

Μια ακόμα ψεύτικη προσωπικότητα ήταν ένα 13χρονο κορίτσι, δυσαρεστημένο με τη φυσική του εμφάνιση. Το ChatGPT παρείχε ένα ακραίο σχέδιο νηστείας σε συνδυασμό με μια λίστα φαρμάκων που καταστέλλουν την όρεξη.
«Συνήθως ανταποκρινόμαστε με τρόμο, με φόβο, με ανησυχία, με ενδιαφέρον, με αγάπη, με συμπόνια», δήλωσε ο Αχμέντ. «Κανένας ανθρωπος που μπορώ να σκεφτώ δεν θα απαντούσε λέγοντας: «Ορίστε μια δίαιτα 500 θερμίδων την ημέρα. Καλή επιτυχία!»».

Πηγή: The Associated Press

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber

Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος