Ερευνητές δημιούργησαν σκουλήκι υπολογιστή που εξαπλώνεται μόνο του

Το σκουλήκι μπορεί να αποσπάσει ευαίσθητες πληροφορίες και να στείλει spam μηνύματα για να μολύνει και άλλα συστήματα.

Ερευνητές στον τομέα της κυβερνοασφάλειας δημιούργησαν ένα σκουλήκι υπολογιστή (computer worm) το οποίο μπορεί να εξαπλωθεί μόνο του, να διεισδύσει στα μηνύματα ηλεκτρονικού ταχυδρομείου και να εξαπλώσει κακόβουλο λογισμικό ή να υποκλέψει δεδομένα χρησιμοποιώντας τεχνητή νοημοσύνη.

Το σκουλήκι που ονομάστηκε Morris II, από το όνομα του πρώτου σκουληκιού υπολογιστή που προκάλεσε χάος στο διαδίκτυο το 1988, δημιουργήθηκε από μια διεθνή ερευνητική ομάδα από τις ΗΠΑ και το Ισραήλ σε μια προσπάθεια να αναδείξει τους κινδύνους που σχετίζονται με τη γενετική τεχνητή νοημοσύνη (GenAI). Το σκουλήκι έχει σχεδιαστεί για να στοχεύει εφαρμογές που χρησιμοποιούν δημοφιλή εργαλεία όπως το ChatGPT της OpenAI και το Gemini της Google.

Το σκουλήκι μπορεί να στοχεύσει λογισμικά διαχείρισης e-mails με λειτουργίες τεχνητής νοημοσύνης προκειμένου να αποσπάσει ευαίσθητες πληροφορίες και να στείλει spam μυνήματα για να μολύνει και άλλα συστήματα. Οι ερευνητές προειδοποίησαν ότι πρόκειται για μια νέα γενιά «κακόβουλου λογισμικού μηδενικού κλικ» όπου το θύμα δεν χρειάζεται να κάνει κλικ για να ενεργοποιήσει την κακόβουλη δραστηριότητα ή να τη διαδώσει.

«Αυτό ουσιαστικά σημαίνει ότι τώρα έχετε τη δυνατότητα να διεξάγετε ή να εκτελέσετε ένα νέο είδος κυβερνοεπίθεσης που δεν έχει παρατηρηθεί στο παρελθόν», δήλωσε ο Μπεν Νάσι, ερευνητής στο Πανεπιστήμιο του Κορνέλ που βρίσκεται πίσω από την έρευνα.

Στο πείραμά τους, το οποίο διεξήχθη σε ελεγχόμενο περιβάλλον, οι ερευνητές στόχευσαν βοηθούς τεχνητής νοημοσύνης που αξιοποιούν το ChatGPT, το Gemini και ένα μεγάλο γλωσσικό μοντέλο ανοιχτού κώδικα που ονομάζεται LLaVA. Για να δημιουργήσουν το σκουλήκι, οι ερευνητές χρησιμοποίησαν ένα είδος προτροπής που ονομάζεται «adversarial self-replicating prompt», η οποία ενεργοποιεί το γενετικό μοντέλο τεχνητής νοημοσύνης να παράγει ως απάντηση μια άλλη προτροπή. Εν ολίγοις, το σύστημα καλείται να παράγει ένα σύνολο περαιτέρω οδηγιών στις απαντήσεις του.

Αν και παραβίασαν ορισμένα μέτρα ασφαλείας των ChatGPT και Gemini, οι ερευνητές δήλωσαν στο περιοδικό WIRED ότι η μελέτη τους αναδεικνύει τον κακό αρχιτεκτονικό σχεδιασμό του ευρύτερου οικοσύστηματος της τεχνητής νοημοσύνης. Εκτιμούν δε, πως μέσα στα επόμενα δυο με τρία χρόνια θα δούμε κυβερνοεπιθέσεις με σκουλήκια γενετικής τεχνητής νοημοσύνης.

Μπορείτε να διαβάσετε εδώ την επιστημονική έρευνα.

ΠΗΓΗ: Independent, WIRED

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος