Οι κίνδυνοι του να αφήνεις την Τεχνητή Νοημοσύνη να σχεδιάζει το επόμενο ταξίδι σου

Μια φανταστική πόλη στο Περού, ένας Πύργος του Άιφελ στο Πεκίνο: οι ταξιδιώτες ολοένα και περισσότερο χρησιμοποιούν εργαλεία όπως το ChatGPT για ιδέες διαδρομών – και καταλήγουν σε προορισμούς που δεν υπάρχουν.

Ο Μιγκέλ Άνχελ Γκονγκόρα Μέζα (Miguel Angel Gongora Meza), ιδρυτής και διευθυντής της Evolution Treks Peru, βρισκόταν σε μια αγροτική πόλη του Περού προετοιμάζοντας μια πεζοπορία μέσω των Άνδεων, όταν άκουσε μια περίεργη συνομιλία. Δύο ανεξάρτητοι τουρίστες συζητούσαν φιλικά τα σχέδιά τους να πεζοπορήσουν μόνοι στα βουνά προς το «Ιερό Φαράγγι του Humantay».

Όταν η AI οδηγεί σε φανταστικούς προορισμούς

«Μου έδειξαν το στιγμιότυπο οθόνης, γραμμένο με αυτοπεποίθηση και γεμάτο ζωντανά επίθετα, αλλά δεν ήταν αληθινό. Δεν υπάρχει Ιερό Φαράγγι του Humantay!» είπε ο Γκονγκόρα Μέζα. «Το όνομα είναι ένας συνδυασμός δύο τοποθεσιών που δεν έχουν σχέση με την περιγραφή. Ο τουρίστας πλήρωσε σχεδόν 160 δολάρια για να βρεθεί σε έναν αγροτικό δρόμο γύρω από το Mollepata χωρίς ξεναγό ή προορισμό».

Περαιτέρω, ο Γκονγκόρα Μέζα τόνισε ότι αυτό το φαινομενικά αθώο λάθος θα μπορούσε να κοστίσει τη ζωή αυτών των ταξιδιωτών. «Αυτού του είδους η παραπληροφόρηση είναι επικίνδυνη στο Περού», εξήγησε. «Το υψόμετρο, οι κλιματικές αλλαγές και η προσβασιμότητα των μονοπατιών πρέπει να προγραμματιστούν. Όταν χρησιμοποιείς ένα πρόγραμμα όπως το ChatGPT, που συνδυάζει εικόνες και ονόματα για να δημιουργήσει μια φαντασία, τότε μπορεί να βρεθείς σε υψόμετρο 4.000 μέτρων χωρίς οξυγόνο και σήμα τηλεφώνου».

Σε μόλις λίγα χρόνια, τα εργαλεία τεχνητής νοημοσύνης (AI) όπως το ChatGPT, το Microsoft Copilot και το Google Gemini έχουν μετατραπεί από μια απλή καινοτομία σε αναπόσπαστο κομμάτι του σχεδιασμού ταξιδιών για εκατομμύρια ανθρώπους. Σύμφωνα με μια έρευνα, το 30% των διεθνών ταξιδιωτών χρησιμοποιούν πλέον εργαλεία γενετικής AI και εξειδικευμένες ιστοσελίδες ταξιδιών με AI, όπως τα Wonderplan και Layla, για να οργανώσουν τα ταξίδια τους.

Ενώ αυτά τα προγράμματα μπορούν να προσφέρουν πολύτιμες συμβουλές όταν λειτουργούν σωστά, μπορούν επίσης να οδηγήσουν τους ανθρώπους σε απογοητευτικές ή ακόμη και επικίνδυνες καταστάσεις όταν δεν λειτουργούν. Αυτό είναι ένα μάθημα που μερικοί ταξιδιώτες μαθαίνουν όταν φτάνουν στον υποτιθέμενο προορισμό τους, μόνο για να διαπιστώσουν ότι έχουν λάβει λανθασμένες πληροφορίες ή έχουν καθοδηγηθεί σε έναν τόπο που υπάρχει μόνο στη φανταστική δημιουργία ενός ρομπότ.

Οι κίνδυνοι της παραπληροφόρησης στην ταξιδιωτική εμπειρία

Η Ντάνα Γιαο (Dana Yao) και ο σύζυγός της βίωσαν πρόσφατα αυτό το φαινόμενο. Το ζευγάρι χρησιμοποίησε το ChatGPT για να σχεδιάσει μια ρομαντική πεζοπορία στην κορυφή του Όρους Misen στο ιαπωνικό νησί Ιτσουκουσίμα (Itsukushima) νωρίτερα φέτος. Μετά την εξερεύνηση της πόλης Miyajima χωρίς προβλήματα, ξεκίνησαν στις 15:00 για να φτάσουν στην κορυφή εγκαίρως για τη δύση του ηλίου, ακριβώς όπως τους είχε υποδείξει το ChatGPT.

«Τότε εμφανίστηκε το πρόβλημα», είπε η Γιαο, δημιουργός που διατηρεί ιστολόγιο για ταξίδια στην Ιαπωνία, «όταν ετοιμαζόμασταν να κατεβούμε από την κορυφή με το τελεφερίκ. Το ChatGPT είπε ότι το τελευταίο τελεφερίκ ήταν στις 17:30, αλλά στην πραγματικότητα είχε ήδη κλείσει. Έτσι, μείναμε στην κορυφή του βουνού».

Ένα άρθρο του BBC το 2024 ανέφερε ότι το Layla πρότεινε προσωρινά στους χρήστες ότι υπάρχει Πύργος του Άιφελ στο Πεκίνο και πρότεινε έναν άθλο-μαραθώνιο μέσω της βόρειας Ιταλίας σε έναν Βρετανό ταξιδιώτη, κάτι εντελώς ανέφικτο. «Οι διαδρομές δεν είχαν λογική συνοχή», είπε ο ταξιδιώτης. «Θα περνούσαμε περισσότερο χρόνο στις μετακινήσεις παρά οπουδήποτε αλλού».

Σύμφωνα με μια έρευνα του 2024, το 37% των ερωτηθέντων που χρησιμοποίησαν AI για να βοηθηθούν στον προγραμματισμό των ταξιδιών τους ανέφεραν ότι δεν παρείχε αρκετές πληροφορίες, ενώ περίπου το 33% δήλωσε ότι οι προτάσεις που δημιούργησε η AI περιλάμβαναν ψευδείς πληροφορίες.

Προβλήματα στις απαντήσεις της AI

Αυτά τα προβλήματα προκύπτουν από τον τρόπο με τον οποίο η AI παράγει τις απαντήσεις της. Σύμφωνα με τον Ραγίντ Γκάνι (Rayid Ghani), διακεκριμένο καθηγητή μηχανικής μάθησης στο Carnegie Mellon University, ενώ προγράμματα όπως το ChatGPT μπορεί να φαίνεται ότι σου δίνουν λογικές και χρήσιμες συμβουλές, ο τρόπος με τον οποίο λαμβάνουν αυτές τις πληροφορίες σημαίνει ότι ποτέ δεν μπορείς να είσαι απόλυτα σίγουρος αν λένε την αλήθεια.

«Δεν ξέρει τη διαφορά μεταξύ ταξιδιωτικών συμβουλών, οδηγιών ή συνταγών», είπε ο Γκάνι. «Απλώς γνωρίζει λέξεις. Οπότε συνεχίζει να δημιουργεί λέξεις που κάνουν ό,τι λέει να ακούγεται ρεαλιστικό, και από εκεί προκύπτουν πολλά από τα βασικά προβλήματα».

Τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT λειτουργούν αναλύοντας τεράστιες συλλογές κειμένων και συνδυάζοντας λέξεις και φράσεις που, στατιστικά, φαίνονται ως κατάλληλες απαντήσεις. Μερικές φορές παρέχουν απόλυτα ακριβείς πληροφορίες. Άλλες φορές, δημιουργούν αυτό που οι ειδικοί της AI ονομάζουν «παραισθήσεις», δηλαδή απλώς φαντάζονται πράγματα. Δεδομένου ότι τα προγράμματα AI παρουσιάζουν τις παραισθήσεις και τις αληθινές απαντήσεις με τον ίδιο τρόπο, είναι συχνά δύσκολο για τον χρήστη να ξεχωρίσει τι είναι πραγματικό και τι όχι.

Στην περίπτωση του «Ιερού Φαραγγιού του Humantay», ο Γκάνι πιστεύει ότι το πρόγραμμα πιθανότατα συνδύασε μερικές λέξεις που φάνηκαν κατάλληλες για την περιοχή. Παρομοίως, η ανάλυση όλων αυτών των δεδομένων δεν δίνει απαραίτητα στο ChatGPT μια χρήσιμη κατανόηση του φυσικού κόσμου. Θα μπορούσε εύκολα να μπερδέψει μια χαλαρή βόλτα 4.000 μέτρων σε μια πόλη με μια ανάβαση 4.000 μέτρων στην πλαγιά ενός βουνού και αυτό πριν καν εξεταστεί το ζήτημα της παραπληροφόρησης.

Πώς η AI κατασκευάζει την πραγματικότητα

Ένα πρόσφατο άρθρο στο Fast Company περιέγραψε ένα περιστατικό όπου ένα ζευγάρι έκανε πεζοπορία προς ένα γραφικό τελεφερίκ στη Μαλαισία που είδαν στο TikTok, μόνο για να ανακαλύψουν ότι δεν υπήρχε καμία τέτοια κατασκευή. Το βίντεο που παρακολούθησαν είχε δημιουργηθεί εξ ολοκλήρου από AI, είτε για να προσελκύσει αλληλεπίδραση είτε για κάποιον άλλο περίεργο σκοπό.

Τέτοια περιστατικά αποτελούν μέρος μιας ευρύτερης τάσης εφαρμογών AI που ενδέχεται να αλλάζουν διακριτικά ή όχι τόσο διακριτικά την αντίληψή μας για τον κόσμο. Ένα πρόσφατο παράδειγμα ήρθε τον Αύγουστο, όταν δημιουργοί περιεχομένου διαπίστωσαν ότι το YouTube χρησιμοποιούσε AI για να τροποποιήσει τα βίντεο τους χωρίς άδεια, αλλάζοντας λεπτομέρειες όπως τα ρούχα, τα μαλλιά και τα πρόσωπα των ανθρώπων. Η Netflix αντιμετώπισε προβλήματα για τη χρήση της AI στις αρχές του 2025, όταν προσπάθειες «ανακατασκευής» παλιών σίτκομ άφησαν σουρεαλιστικές παραμορφώσεις στα πρόσωπα αγαπημένων τηλεοπτικών αστέρων των δεκαετιών του 1980 και 1990. Καθώς η AI χρησιμοποιείται όλο και περισσότερο για να κάνει τέτοιες μικρές αλλαγές χωρίς τη γνώση μας, οι γραμμές μεταξύ πραγματικότητας και ενός τεχνητού, «πολυτελούς» κόσμου μπορεί να αρχίσουν να θολώνουν και για τους ταξιδιώτες.

Ο Χαβιέ Λαμπούρτ (Javier Labourt), αδειοδοτημένος κλινικός ψυχοθεραπευτής και υποστηρικτής της ιδέας ότι το ταξίδι μπορεί να ενισχύσει τη συνολική ψυχική υγεία και την αίσθηση σύνδεσης, ανησυχεί ότι η εξάπλωση αυτών των προβλημάτων μπορεί να αντιστρέψει τα οφέλη που προσφέρει το ταξίδι. Πιστεύει ότι το ταξίδι προσφέρει μια μοναδική ευκαιρία στους ανθρώπους να αλληλεπιδράσουν με άλλους που διαφορετικά ίσως δεν συναντούσαν και να γνωρίσουν διαφορετικούς πολιτισμούς από πρώτο χέρι, όλα στοιχεία που ενισχύουν την ενσυναίσθηση και την κατανόηση. Αλλά όταν οι «παραισθήσεις» της AI παρέχουν παραπληροφόρηση, δημιουργούν μια ψευδή αφήγηση για έναν τόπο πριν οι ταξιδιώτες ακόμη φύγουν από το σπίτι.

Προσπάθειες ρύθμισης της AI

Υπάρχουν επί του παρόντος προσπάθειες να ρυθμιστεί ο τρόπος με τον οποίο η AI παρουσιάζει πληροφορίες στους χρήστες, συμπεριλαμβανομένων αρκετών προτάσεων από την ΕΕ και τις ΗΠΑ για προσθήκη υδατογραφημάτων ή άλλων χαρακτηριστικών που να υποδεικνύουν πότε κάτι έχει τροποποιηθεί ή δημιουργηθεί από AI. Αλλά σύμφωνα με τον Γκάνι, είναι ένας δύσκολος αγώνας: «Γίνεται πολλή δουλειά γύρω από την παραπληροφόρηση: Πώς τη διαπιστώνεις; Πώς βοηθάς τους ανθρώπους να την αναγνωρίσουν; Αλλά η μετρίαση είναι πιο αξιόπιστη λύση σήμερα από την πρόληψη».

Αν περάσουν τέτοιες ρυθμίσεις, θα μπορούσαν να κάνουν πιο εύκολο για τους ταξιδιώτες να αναγνωρίζουν εικόνες ή βίντεο που δημιουργούνται από AI. Αλλά οι νέοι κανόνες δεν πρόκειται να βοηθήσουν όταν ένα chatbot δημιουργεί κάτι στη μέση μιας συνομιλίας. Οι ειδικοί, συμπεριλαμβανομένου του CEO της Google Σουντάρ Πιτσάι (Sundar Pichai), έχουν δηλώσει ότι οι «παραισθήσεις» μπορεί να είναι ένα «έμφυτο χαρακτηριστικό» μεγάλων γλωσσικών μοντέλων όπως το ChatGPT ή το Google Gemini. Εάν πρόκειται να χρησιμοποιήσεις AI, το μόνο μέσο προστασίας είναι η επαγρύπνηση.

Πώς να ταξιδεύετε με ασφάλεια χρησιμοποιώντας AI

Ο Γκάνι προτείνει να είσαι όσο το δυνατόν πιο συγκεκριμένος στις ερωτήσεις σου και να επαληθεύεις τα πάντα. Ωστόσο, αναγνωρίζει το μοναδικό πρόβλημα που θέτει το ταξίδι, καθώς οι ταξιδιώτες συχνά ρωτούν για προορισμούς που δεν γνωρίζουν. Αν ένα εργαλείο AI σου δίνει μια πρόταση ταξιδιού που ακούγεται υπερβολικά τέλεια, ελέγξέ την. Στο τέλος, ο Γκάνι λέει ότι ο χρόνος που απαιτείται για την επαλήθευση των πληροφοριών μπορεί σε κάποιες περιπτώσεις να καθιστά τη διαδικασία εξίσου χρονοβόρα όσο ο παραδοσιακός προγραμματισμός ταξιδιού.

Για τον Λαμπούρτ, το κλειδί για ένα καλό ταξίδι, με ή χωρίς AI, είναι να διατηρείς ανοιχτό μυαλό και να είσαι ευέλικτος όταν κάτι πάει στραβά. «Προσπάθησε να μετατοπίσεις την απογοήτευση από το να σε εξαπατήσει κάποιος», πρότεινε. «Αν βρίσκεσαι εκεί, πώς θα το αντιμετωπίσεις; Έχεις ήδη ένα φοβερό ταξίδι, ξέρεις;»

Πηγή: BBC | Μετάφραση – Επιμέλεια: Γεωργία Κανταρτζή

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber

Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος