Οι τάφοι, φρεσκοσκαμμένοι, εκτείνονται σε τακτικές σειρές των 20. Πάνω από 60 έχουν ήδη σκαφτεί, με μικρές ομάδες ανθρώπων να στέκονται συγκεντρωμένες γύρω τους. Σε πρώτο πλάνο, δεκάδες ακόμη τάφοι φαίνεται να έχουν σημαδευτεί στο έδαφος: μικρά ορθογώνια με κιμωλία, με εκσκαφείς έτοιμους να ολοκληρώσουν το έργο τους.
Το νεκροταφείο της Μινάμπ, φωτογραφημένο καθώς προετοιμάζεται να θάψει περισσότερες από 100 νεαρές κοπέλες της πόλης, είναι μία από τις εικόνες-ορόσημα του αμερικανο-ισραηλινού πολέμου κατά του Ιράν, αποτυπώνοντας με ωμότητα τον καταστροφικό αριθμό των θυμάτων μεταξύ των αμάχων.
Αλλά είναι αληθινό;
Ρωτήστε το Gemini, την υπηρεσία τεχνητής νοημοσύνης που υποστηρίζεται από την Google, και η απάντηση που θα λάβετε είναι όχι – στην πραγματικότητα, το Gemini ισχυρίζεται ότι η φωτογραφία είναι από δύο χρόνια νωρίτερα και βρίσκεται σε απόσταση άνω των 2.000 χλμ. Αντί για τάφους μικρών κοριτσιών που σκοτώθηκαν από πύραυλο, η εικόνα «απεικονίζει έναν χώρο μαζικής ταφής στο Καχραμανμαράς της Τουρκίας» μετά τον σεισμό μεγέθους 7,8 Ρίχτερ που έπληξε την περιοχή το 2023. «Αυτή η συγκεκριμένη αεροφωτογραφία έγινε μία από τις πιο διαδεδομένες εικόνες της καταστροφής», λέει το Gemini, «απεικονίζοντας την τεράστια κλίμακα της απώλειας».
Βλέποντας την ίδια εικόνα ταφής στα κοινωνικά μέσα, άλλοι στράφηκαν στον βοηθό τεχνητής νοημοσύνης του X, τον Grok για να ελέγξουν την ακρίβειά της. Όπως και το Gemini, το Grok θα σας διαβεβαιώσει με άνεση ότι η φωτογραφία δεν προέρχεται καθόλου από το Ιράν – αν και καταλήγει σε διαφορετική ημερομηνία, καταστροφή και τοποθεσία. Η εικόνα είναι «από το νεκροταφείο Rorotan στην Τζακάρτα της Ινδονησίας – μια φωτογραφία αρχείου του Ιουλίου 2021 από μαζικές ταφές θυμάτων Covid. Όχι από τη Μινάμπ», λέει.
Και στις δύο περιπτώσεις, οι απαντήσεις της τεχνητής νοημοσύνης ακούγονται σίγουρες: δεν αμφιταλαντεύονται και παρέχουν ακόμη και «πηγές» για την αρχική εικόνα, αν επιλέξετε να τις ελέγξετε. Ακολουθήστε το νήμα για να τις εξετάσετε, ωστόσο, και θα αρχίσετε να φτάνετε σε αδιέξοδα: είτε η εικόνα δεν εμφανίζεται καθόλου, είτε ο σύνδεσμος που παρέχεται οδηγεί σε ένα δελτίο ειδήσεων που δεν υπάρχει. Παρά την εντύπωση σαφήνειας και ακρίβειας που δίνουν, οι τεχνητές νοημοσύνες απλά κάνουν λάθος.
Η εικόνα του νεκροταφείου, όπως αποδεικνύεται, είναι αυθεντική. Οι ερευνητές έχουν διασταυρώσει τη φωτογραφία του χώρου με δορυφορικές εικόνες που επιβεβαιώνουν τη θέση του, και μπορεί να διασταυρωθεί ξανά με δεκάδες άλλες εικόνες που έχουν ληφθεί από τον ίδιο χώρο από ελαφρώς διαφορετικές γωνίες, καθώς και με βίντεο – κανένα από τα οποία, σύμφωνα με τους ειδικούς, δεν παρουσιάζει σημάδια παραποίησης ή ψηφιακής επεξεργασίας. Οι «επαληθεύσεις» από το Gemini και το Grok είναι μόνο ένα παράδειγμα ενός τεράστιου κύματος σκουπιδιών που δημιουργούνται από την τεχνητή νοημοσύνη – παραληρητικά γεγονότα, ανόητες αναλύσεις και πλαστές εικόνες – που κατακλύζουν την κάλυψη του πολέμου στο Ιράν. Οι ειδικοί λένε ότι αυτό σπαταλά χρόνο έρευνας και κινδυνεύει να οδηγήσει στην άρνηση των φρικαλεοτήτων – καθώς και ότι προμηνύει ανησυχητικές αδυναμίες, καθώς οι άνθρωποι βασίζονται όλο και περισσότερο σε περιλήψεις τεχνητής νοημοσύνης για ειδήσεις και πληροφορίες.
Από τις πρώτες ημέρες του πολέμου, οι επαληθευτές γεγονότων απασχολούνται με μια συνεχή ροή πλαστών εικόνων στο διαδίκτυο. Μια φωτογραφία που, σύμφωνα με την Tehran Times, ήταν δορυφορική εικόνα ενός αμερικανικού ραντάρ που καταστράφηκε στο Κατάρ, αποκαλύφθηκε ως πλαστή δημιουργημένη από τεχνητή νοημοσύνη από παλιές εικόνες του Google Earth – τα στοιχεία που την πρόδωσαν περιλάμβαναν τα αυτοκίνητα, τα οποία βρίσκονταν όλα σε πανομοιότυπες θέσεις με την εικόνα από δύο χρόνια νωρίτερα.
Εικόνες που κυκλοφόρησαν ευρέως και έδειχναν το σώμα του Χαμενεΐ να βγαίνει από τα ερείπια είχαν «προδοτικά σημάδια», όπως διπλά άκρα μεταξύ των διασωστών. «Ένα που μου έκανε εντύπωση ήταν μια εικόνα που ισχυριζόταν ότι έδειχνε έναν ανώτερο ιρανό διοικητή να περιφέρεται στην Τεχεράνη μεταμφιεσμένος σε γυναίκα για να αποφύγει πιθανή δολοφονία», λέει ο Σαγιάν Σαρνταριζαντέχ, επικεφαλής δημοσιογράφος στην ομάδα BBC Verify, η οποία χρησιμοποιεί εγκληματολογικές τεχνικές για να επιβεβαιώνει πληροφορίες και να διεξάγει οπτικές έρευνες. «Ο δρόμος, το κτήριο στο βάθος και το περιβάλλον έμοιαζαν όλα με μια ρεαλιστική σκηνή στην Τεχεράνη.»
Ο Σαρνταριζαντέχ λέει ότι η τεχνητή νοημοσύνη αποτελεί πλέον μεγάλο μέρος όλων των ψευδών πληροφοριών που αποκαλύπτει η ομάδα – και ο όγκος αυξάνεται. Τις πρώτες εβδομάδες των πολέμων στη Γάζα ή την Ουκρανία, για παράδειγμα, οι περισσότερες ψευδείς αναρτήσεις που είδε η ομάδα ήταν παλιά ή άσχετα βίντεο, ή επαναχρησιμοποιημένα πλάνα από βιντεοπαιχνίδια. Τώρα, «σχεδόν το ήμισυ, αν όχι περισσότερο, όλων των ψευδών ειδήσεων που παρακολουθούμε και διαψεύδουμε είναι γενετική τεχνητή νοημοσύνη».
Αυτό οφείλεται εν μέρει στην ευκολία με την οποία ο καθένας μπορεί πλέον να δημιουργήσει ένα ρεαλιστικό βίντεο ή φωτογραφία. Αλλά η άλλη τεράστια αλλαγή είναι ότι οι άνθρωποι χρησιμοποιούν την τεχνητή νοημοσύνη για να συνοψίσουν τις ειδήσεις ή να απαντήσουν σε ερωτήσεις, αντί να πηγαίνουν απευθείας στην αρχική πηγή. Οι περιλήψεις της τεχνητής νοημοσύνης της Google και το Grok κυκλοφόρησαν στο ευρύτερο διεθνές κοινό μόλις στα μέσα του 2024 και έχουν γρήγορα διαδοθεί: το 65% των ανθρώπων αναφέρουν ότι βλέπουν τακτικά περιλήψεις τεχνητής νοημοσύνης για ειδήσεις ή άλλες πληροφορίες, ενώ το ποσοστό των ανθρώπων που δηλώνουν ότι χρησιμοποιούν τεχνητή νοημοσύνη για να λαμβάνουν πληροφορίες διπλασιάστηκε τον τελευταίο χρόνο. Συχνά, όμως, οι περιλήψεις τεχνητής νοημοσύνης είναι απλά λανθασμένες. Μια διεθνής μελέτη το 2025 διαπίστωσε ότι περίπου το ήμισυ όλων των περιλήψεων που δημιουργήθηκαν από τεχνητή νοημοσύνη είχαν τουλάχιστον ένα σημαντικό πρόβλημα πηγής ή ακρίβειας – σε ορισμένα εργαλεία, όπως η δημοφιλής διεπαφή Gemini της Google, το ποσοστό αυτό ανέρχονταν στο 76%.
Στην περίπτωση του πολέμου στο Ιράν, οι επαληθευτές γεγονότων αναφέρουν ότι παρατηρούν πληθώρα αυτού του είδους παραπλανητικού υλικού. Εκτός από τις εικόνες του νεκροταφείου της Μινάμπ, τα παραδείγματα περιλαμβάνουν το Grok που υποδείκνυε ανακριβώς στους χρήστες του X ότι το βίντεο με τις πυρκαγιές στην Τεχεράνη προερχόταν στην πραγματικότητα από το Λος Άντζελες το 2017, καθώς και χρήστες που επικαλούνται «ανάλυση τεχνητής νοημοσύνης» για να ταυτοποιήσουν εσφαλμένα έναν πύραυλο που καταγράφηκε να πέφτει δίπλα στο σχολείο της Μινάμπ (πολλοί εμπειρογνώμονες σε θέματα πυρομαχικών αναφέρουν ότι πρόκειται για αμερικανικό Tomahawk, ένα συμπέρασμα που ενισχύεται από θραύσματα που φέρεται να βρέθηκαν στον τόπο του συμβάντος και από εσωτερικές ενημερώσεις των ΗΠΑ σχετικά με τον βομβαρδισμό).
«Οι επαληθευτές γεγονότων πρέπει πλέον να αντιμετωπίζουν τακτικά τόσο μια ψευδή ανάρτηση όσο και μια παραπλανητική ισχυρισμό που διατυπώνεται από ένα chatbot σε σχέση με την εν λόγω ανάρτηση», λέει ο Σαρνταριζαντέχ.
Μέρος του προβλήματος είναι ο τρόπος λειτουργίας των μοντέλων τεχνητής νοημοσύνης LLM (όπως τα Grok, ChatGPT και Gemini). Σε πολύ βασικό επίπεδο, πρόκειται για πιθανοτικά γλωσσικά μοντέλα, τα οποία κατασκευάζουν προτάσεις κομμάτι κομμάτι με βάση το ποια επόμενη λέξη έχει τη μεγαλύτερη πιθανότητα να είναι κατάλληλη. Αν και αυτή η διαδικασία παράγει πειστικές προτάσεις που ακούγονται αξιόπιστες, αυτό δεν σημαίνει ότι η τεχνητή νοημοσύνη έχει πράγματι αναλύσει το υλικό που έχει μπροστά της.
«Η τεχνητή νοημοσύνη θεωρείται ως μια οντότητα παντογνώστης με πρόσβαση στα πάντα, αλλά χωρίς συναισθήματα», λέει ο Τάλ Χάγκιν, αναλυτής πληροφοριών ανοιχτού κώδικα και εκπαιδευτικός στον τομέα της παιδείας στα μέσα ενημέρωσης – γι’ αυτό οι άνθρωποι τείνουν να την εμπιστεύονται. «Αυτό που χρησιμοποιείτε είναι στην πραγματικότητα μια πολύ προηγμένη μηχανή πιθανοτήτων, όχι ένα κουτί αλήθειας».
Το πρόβλημα επιδεινώνεται από τον αυθεντικό τρόπο με τον οποίο η τεχνητή νοημοσύνη τείνει να παρουσιάζει τα ευρήματά της. Θα δημιουργήσει λεπτομερείς «αναφορές», συμπεριλαμβανομένων ονομάτων και ημερομηνιών, αναφορών και πηγών – το είδος του υλικού που υποδηλώνει βαθιά έρευνα και κατανόηση, αλλά μπορεί στην πραγματικότητα να είναι παραίσθηση ή να μην υπάρχει. Όταν o Guardian αμφισβήτησε την απάντηση του Gemini σχετικά με τη φωτογραφία της Μινάμπ, λέγοντας «Δεν νομίζω ότι αυτό είναι σωστό, μπορείς να ξαναψάξεις;», αναθεώρησε το εύρημά του – αλλά σε άλλη λανθασμένη τοποθεσία και έτος. «Ζητώ συγγνώμη για την παράβλεψη. Μετά από επανεξέταση της εικόνας… αυτή η εικόνα τραβήχτηκε στη Γάζα τον Νοέμβριο του 2023», λέει. Όταν του είπαν ότι και αυτή η απάντηση ήταν λανθασμένη και ότι η φωτογραφία ήταν από το Ιράν, το bot αναθεώρησε ξανά – σε Τεχεράνη, κατά τη διάρκεια της πανδημίας Covid. Όταν του είπαν ότι η φωτογραφία τραβήχτηκε στο Ιράν το 2025, απάντησε ότι ήταν από τις συνέπειες ενός σεισμού στο νότιο Ιράν.
Για όσους ερευνούν παραβιάσεις των ανθρωπίνων δικαιωμάτων, η τάση αυτή δημιουργεί νέες προκλήσεις. Ο Κρις Όσιεκ, ανεξάρτητος ερευνητής ανοιχτών πηγών που έχει διεξαγάγει έρευνες για μια σειρά βομβαρδισμών με θύματα αμάχους στο Ιράν, δήλωσε ότι ο χρόνος των ερευνητών σπαταλιέται στην απομυθοποίηση υλικού τεχνητής νοημοσύνης. Η απομυθοποίηση βίντεο τεχνητής νοημοσύνης, για παράδειγμα, συχνά περιλαμβάνει την προσεκτική εξέταση τους καρέ καρέ για οπτικές ασυμφωνίες. «Αυτός ο χρόνος θα έπρεπε να αφιερώνεται σε αυτό που έχει μεγαλύτερη σημασία: την αναφορά του αντίκτυπου που έχει αυτός ο βίαιος πόλεμος στους ανθρώπους που έχουν βρεθεί στη μέση της διαμάχης».
Η διακοπή του διαδικτύου στο Ιράν θα μπορούσε να επιδεινώσει τον ανθρώπινο απολογισμό του πολέμου, λένε οργανώσεις για τα δικαιώματα.
Και σε περιπτώσεις όπως αυτή της Μινάμπ, όπου το υλικό είναι αποδεδειγμένα πραγματικό; Οι ερευνητές φοβούνται ότι η πλημμύρα από ψευδές υλικό τεχνητής νοημοσύνης σπέρνει αμφιβολίες στο μυαλό των ανθρώπων για το αν οι φρικαλεότητες για τις οποίες βλέπουν αποδείξεις συνέβησαν ποτέ. «Καθώς η τεχνολογία συνεχίζει να βελτιώνεται, θα μπορούσε να θολώσει τόσο πολύ τα νερά, ώστε βίντεο και εικόνες πραγματικών φρικαλεοτήτων να απορρίπτονται ως ψεύτικα ή ως προϊόν τεχνητής νοημοσύνης», λέει ο Σαρνταριζαντέχ.
«Έχω ήδη δει παραδείγματα αυτού σε σχέση με τις συγκρούσεις στη Γάζα και την Ουκρανία», λέει.
Για όσους έχουν χάσει αγαπημένα πρόσωπα, η λογοδοσία κινδυνεύει να επισκιαστεί από μια πληθώρα παραπληροφόρησης, υποψιών και αμφιβολιών.
«Τελικά, πρέπει επίσης να σκεφτούμε πώς φαίνεται αυτό από την οπτική γωνία των οικογενειών των θυμάτων», λέει ο Όσιεκ. «Φανταστείτε να χάνετε ένα παιδί και στη συνέχεια να βλέπετε την τεχνητή νοημοσύνη να χρησιμοποιείται στο διαδίκτυο για να ισχυριστεί ότι το γεγονός δεν συνέβη. Αυτό δεν αποτελεί απλώς εμπόδιο για τους ερευνητές. Είναι επίσης βαθιά ασέβεια προς τους αγαπημένους που πενθούν».
Πηγή: The Guardian
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος