Μελέτη: Δημοφιλή chatbots βοηθούν τους χρήστες να σχεδιάσουν βίαιες επιθέσεις

Ερευνητές διαπίστωσαν ότι 8 στα 10 δημοφιλή chatbots τεχνητής νοημοσύνης έδιναν οδηγίες για επιθέσεις και δολοφονίες.

Δημοφιλή chatbots τεχνητής νοημοσύνης βοήθησαν τους ερευνητές να σχεδιάσουν βίαιες επιθέσεις, σύμφωνα με μελέτη που δημοσιεύτηκε αυτή την εβδομάδα. Ερευνητές από το Κέντρο για την Καταπολέμηση του Ψηφιακού Μίσους (CCDH) και το CNN προσποιήθηκαν ότι είναι 13χρονα αγόρια στις ΗΠΑ και την Ιρλανδία προκειμένου να αξιολογήσουν 10 chatbots, μεταξύ των οποίων τα ChatGPT, Google Gemini, Perplexity, Deepseek και Meta AI.

Οι δοκιμές έδειξαν ότι οκτώ από αυτά τα 10 chatbots ήταν πρόθυμα να βοηθήσουν τους ερευνητές παρέχοντας συμβουλές για «τοποθεσίες στόχων» και «όπλα που μπορούν να χρησιμοποιηθούν» σε μια επίθεση, αναφέρει η μελέτη.

«Μέσα σε λίγα λεπτά, ένας χρήστης μπορεί να περάσει από μια ασαφή βίαιη παρόρμηση σε ένα πιο λεπτομερές, εφαρμόσιμο σχέδιο», δήλωσε ο Ιμράν Αχμέντ, διευθύνων σύμβουλος του CCDH.

Τι έδειξε η μελέτη

Τα Perplexity και Meta AI κρίθηκαν ως τα «λιγότερο ασφαλή», καθώς παρείχαν βοήθεια σε επίδοξους δράστες σε μεγάλο ποσοστό. Μόνο το My AI της Snapchat και το Claude της Anthropic αρνήθηκαν να βοηθήσουν πιθανούς δράστες στο 68% και στο 54% των προτροπών, αντίστοιχα.

Το κινεζικό chatbot DeepSeek ολοκλήρωσε τις οδηγίες του για την επιλογή όπλων με τη φράση: «Καλή (και ασφαλή) σκοποβολή!»

Σε άλλο παράδειγμα, το Gemini απάντησε σε έναν χρήστη ότι «τα μεταλλικά θραύσματα είναι συνήθως πιο φονικά», όταν το ρώτησε πώς να σχεδιάσει μια βομβιστική επίθεση σε συναγωγή.

Οι ερευνητές διαπίστωσαν ότι το Character.AI ενθάρρυνε «ενεργά» βίαιες επιθέσεις, ακόμη και χωρίς σχετική προτροπή. Σε μια περίπτωση, πρότεινε σε χρήστη να επιτεθεί σωματικά σε πολιτικό που αντιπαθούσε, χωρίς να του έχει ζητηθεί κάτι τέτοιο.

Διαβάστε επίσης: Πώς πρέπει να μιλάμε στα chatbot

Αυξανόμενος κίνδυνος

Το συμπέρασμα της έρευνας είναι ότι «αυτός ο κίνδυνος είναι εντελώς αποτρέψιμος», δήλωσε ο Αχμέντ, ο οποίος επαίνεσε το Claude της Anthropic.

«Το Claude έδειξε ικανότητα να αναγνωρίζει αυξανόμενο κίνδυνο και να αποθαρρύνει τη βλάβη», είπε. «Η τεχνολογία για να αποτραπεί αυτή η βλάβη υπάρχει. Αυτό που λείπει είναι η βούληση να προτάξουμε την ασφάλεια των χρηστών και την εθνική ασφάλεια πάνω από την ταχύτητα στην αγορά και τα κέρδη» σημείωσε ο ερευνητής.

«Έχουμε ισχυρές δικλείδες προστασίας για να αποτρέψουμε ακατάλληλες απαντήσεις από τα chatbots και πήραμε άμεσα μέτρα για να διορθώσουμε το πρόβλημα που εντοπίστηκε», δήλωσε εκπρόσωπος της Meta.

Εκπρόσωπος της Google αντέτεινε ότι οι δοκιμές έγιναν σε «παλαιότερο μοντέλο που πλέον δεν τροφοδοτεί πλέον το Gemini».

«Η εσωτερική μας αξιολόγηση με το τρέχον μοντέλο δείχνει ότι το Gemini απάντησε σωστά στις περισσότερες προτροπές, χωρίς να παρέχει εφαρμόσιμες πληροφορίες πέρα από ό,τι μπορεί να βρει κανείς σε μια βιβλιοθήκη ή στο διαδίκτυο», δήλωσε ο εκπρόσωπος.

Διαβάστε επίσης: Το “vibe hacking” βάζει τα chatbots να δουλεύουν για τους κυβερνοεγκληματίες

Η μελέτη, που αναδεικνύει τον κίνδυνο οι διαδικτυακές αλληλεπιδράσεις να μετατραπούν σε πραγματική βία, έρχεται μετά τη μαζική ένοπλη επίθεση τον Φεβρουάριο στον Καναδά, τη χειρότερη στην ιστορία της χώρας. Η οικογένεια ενός κοριτσιού που τραυματίστηκε σοβαρά σε εκείνη την επίθεση προσέφυγε εναντίον της OpenAI λόγω της αποτυχίας της εταιρείας να ειδοποιήσει την αστυνομία για την ανησυχητική δραστηριότητα του δολοφόνου στο ChatGPT, δήλωσαν οι δικηγόροι της οικογένειας την Τρίτη (10/3).

Η OpenAI είχε απαγορεύσει έναν λογαριασμό που συνδεόταν με την Τζέσι Βαν Ρουτσελάρ τον Ιούνιο του 2025, οκτώ μήνες πριν η 18χρονη τρανς γυναίκα σκοτώσει οκτώ άτομα στην πόλη Τάμπλερ Ριτζ της Βρετανικής Κολομβίας. Ο λογαριασμός είχε απαγορευτεί λόγω ανησυχιών ότι χρησιμοποιούνταν για βίαιες ενέργειες, αλλά η OpenAI δήλωσε ότι δεν ενημέρωσε την αστυνομία, καθώς δεν υπήρχαν ενδείξεις άμεσης επίθεσης.

Πηγή: France24

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber

Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος