Κίνα: Η απάτη με τεχνολογία deepfake εγείρει ανησυχίες σχετικά με τις δυνατότητες της τεχνητής νοημοσύνης

Οι κινέζοι πολίτες εκφράζουν ανησυχίες για τη διαδικτυακή τους ασφάλεια.

Μια πρόσφατη απάτη στην Κίνα που χρησιμοποίησε την τεχνολογία deepfake έχει εγείρει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης για τη διεξαγωγή δόλιων δραστηριοτήτων στη χώρα. Η συζήτηση στον ιστότοπο κοινωνικής δικτύωσης Weibo σχετικά με την έκρηξη του αριθμού των απατών που πραγματοποιούνται με τη βοήθεια της τεχνητής νοημοσύνης συγκέντρωσε περισσότερες από 120 εκατομμύρια προβολές σε μια ημέρα, ανέφερε το Reuters.

Σύμφωνα με το ρεπορτάζ του Reuters, η αστυνομία στην πόλη Μπαοτού στην περιοχή της Εσωτερικής Μογγολίας, ένας άνδρας δέχτηκε μια βιντεοκλήση από έναν φίλο του, ο οποίος του ζήτησε χρήματα για να κάνει άμεσα μια κατάθεση κατά τη διάρκεια μιας διαδικασίας υποβολής προσφορών.

Το θύμα μετέφερε αμέσως 4,3 εκατομμύρια γιουάν (622.000 δολάρια). Ωστόσο, όταν επικοινώνησε με τον φίλο του, εκείνος του είπε πως δεν γνώριζε τίποτα για το συμβάν. Η αστυνομία έχει ήδη ανακτήσει το μεγαλύτερο μέρος των κλεμμένων χρημάτων και γίνονται προσπάθειες για τον εντοπισμό των υπολοίπων. Ωστόσο, στον ιστότοπο κοινωνικής δικτύωσης Weibo οι χρήστες εκφράζουν ανησυχίες σχετικά με την απειλή της διαδικτυακής ιδιωτικότητας και ασφάλειας από ισχυρές τεχνολογίες όπως η τεχνητή νοημοσύνη.

Οι χρήστες στα μέσα κοινωνικής δικτύωσης εξέφρασαν την άποψή τους ότι οι φωτογραφίες, οι φωνές και τα βίντεο είναι όλα στη διάθεση των απατεώνων και ότι οι κανόνες ασφάλειας των πληροφοριών δύσκολα θα μπορούσαν να συμβαδίσουν με τις τεχνικές που χρησιμοποιούνται ήδη σήμερα. Παρόλα αυτά, η Κίνα έχει αυστηροποιήσει τον έλεγχο των εν λόγω τεχνολογιών. Τον περασμένο Ιανουάριο, θέσπισε νέους κανόνες για τη χειραγώγηση δεδομένων φωνής και προσώπου, καθώς και για τη νομική προστασία των θυμάτων.

ΠΗΓΗ: Interesting Engineering

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος