Το άρθρο 50 του AI Act είναι το σημείο του ευρωπαϊκού κανονισμού για την τεχνητή νοημοσύνη που αφορά τη διαφάνεια. Δεν ρυθμίζει γενικά όλη την τεχνητή νοημοσύνη, αλλά συγκεκριμένες περιπτώσεις όπου ο άνθρωπος πιθανόν να μην ,πορεί να καταλάβει ότι αλληλεπιδρά με AI ή ότι βλέπει, ακούει ή διαβάζει περιεχόμενο που έχει παραχθεί ή τροποποιηθεί από AI. Με απλά λόγια, το άρθρο 50 επιχειρεί να απαντήσει σε ένα από τα πιο κρίσιμα ερωτήματα της νέας ψηφιακής εποχής. Πότε πρέπει η τεχνητή νοημοσύνη να δηλώνει ότι είναι τεχνητή νοημοσύνη;
Η Ευρωπαϊκή Επιτροπή έδωσε στη δημοσιότητα ένα σχέδιο κατευθυντήριων γραμμών για την εφαρμογή αυτών των υποχρεώσεων. Οι οδηγίες δεν είναι ακόμη δεσμευτικές, καθώς βρίσκονται στο στάδιο της διαβούλευσης, όμως δείχνουν με αρκετή σαφήνεια πώς η Ευρώπη σκοπεύει να εφαρμόσει στην πράξη έναν από τους πιο ευαίσθητους κανόνες του AI Act. Από τις 2 Αυγούστου 2026, τα συστήματα που εμπίπτουν στο άρθρο 50 θα πρέπει να συμμορφώνονται με τις σχετικές υποχρεώσεις διαφάνειας.
Το ενδιαφέρον δεν βρίσκεται μόνο στις νομικές λεπτομέρειες. Βρίσκεται κυρίως στην καθημερινή εμπειρία του χρήστη. Στο chatbot που απαντά σαν άνθρωπος. Στον φωνητικό βοηθό που μιλά με φυσικότητα. Στο βίντεο που δείχνει έναν πολιτικό να λέει κάτι που δεν είπε ποτέ. Στην εικόνα που μοιάζει φωτογραφία αλλά δεν είναι. Στο κείμενο που ενημερώνει το κοινό για ένα θέμα δημόσιου ενδιαφέροντος, χωρίς να είναι σαφές αν γράφτηκε από άνθρωπο, από σύστημα τεχνητής νοημοσύνης ή από έναν συνδυασμό των δύο.
Η βασική ιδέα είναι απλή. Η τεχνητή νοημοσύνη δεν πρέπει να κρύβεται πίσω από την ανθρώπινη μορφή, τη δημοσιογραφική γλώσσα ή την τεχνική πειστικότητα της εικόνας. Όταν ο χρήστης αλληλεπιδρά με AI, πρέπει να το γνωρίζει. Όταν εκτίθεται σε τεχνητά παραγμένο ή τροποποιημένο περιεχόμενο, πρέπει να μπορεί να το αντιληφθεί. Και όταν ένα μέσο ενημέρωσης χρησιμοποιεί AI, πρέπει να υπάρχει σαφής ανθρώπινος έλεγχος και συντακτική ευθύνη.
Όταν το chatbot πρέπει να συστηθεί
Το πρώτο μεγάλο πεδίο αφορά τα συστήματα που αλληλεπιδρούν άμεσα με φυσικά πρόσωπα. Chatbots, φωνητικοί βοηθοί, AI agents, avatars, bots σε κοινωνικά δίκτυα και εφαρμογές υποστήριξης πελατών ανήκουν σε αυτή την κατηγορία, όταν υπάρχει άμεση επικοινωνία με τον άνθρωπο.
Οι κατευθυντήριες γραμμές επιμένουν ότι η ενημέρωση δεν μπορεί να είναι κρυμμένη στους όρους χρήσης, σε ένα link ή σε μια τεχνική περιγραφή που κανείς δεν διαβάζει. Δεν αρκεί επίσης μια ασαφής ένδειξη τύπου «βοηθός», εάν ο χρήστης μπορεί να θεωρήσει ότι συνομιλεί με άνθρωπο. Η πληροφορία πρέπει να είναι καθαρή, διακριτή και διαθέσιμη από την πρώτη αλληλεπίδραση. Αυτό έχει ιδιαίτερη σημασία σε περιβάλλοντα όπου η ψευδαίσθηση ανθρώπινης παρουσίας μπορεί να γίνει ισχυρή. Ένα απλό chatbot εξυπηρέτησης πελατών μπορεί να μοιάζει ακίνδυνο. Ένας «συνοδός» AI, όμως, ένα ρεαλιστικό άβαταρ ή ένας φωνητικός βοηθός που απευθύνεται σε παιδιά, ηλικιωμένους ή ευάλωτους χρήστες δημιουργεί πολύ διαφορετικά προβλήματα. Εκεί η διαφάνεια δεν είναι τυπική υποχρέωση. Είναι στοιχείο προστασίας.
Οι οδηγίες αναγνωρίζουν και εξαιρέσεις. Αν η αλληλεπίδραση με AI είναι προφανής για έναν «ενημερωμένο παρατηρητή», τότε η υποχρέωση μπορεί να μην εφαρμόζεται. Ωστόσο, η Επιτροπή δεν αντιμετωπίζει την «προφανή» τεχνητή φύση ως εύκολη δικαιολογία. Το αν κάτι είναι προφανές εξαρτάται από το κοινό, το περιβάλλον, την ηλικία, την ψηφιακή παιδεία και το είδος της αλληλεπίδρασης.
Το περιεχόμενο δεν αρκεί να φαίνεται αληθινό
Το δεύτερο πεδίο αφορά το περιεχόμενο που παράγεται ή τροποποιείται από AI. Εικόνες, βίντεο, ήχος και κείμενο μπαίνουν στο ίδιο βασικό πλαίσιο. Οι πάροχοι συστημάτων που δημιουργούν ή τροποποιούν τέτοιο περιεχόμενο θα πρέπει να εφαρμόζουν τεχνικές λύσεις ώστε τα παραγόμενα προϊόντα να επισημαίνονται σε μηχανικά αναγνώσιμη μορφή και να είναι ανιχνεύσιμα ως τεχνητά παραγμένα ή τροποποιημένα.
Εδώ η Ευρωπαϊκή Επιτροπή πηγαίνει πέρα από το απλό: «βάλτε μια ετικέτα». Η σήμανση πρέπει να είναι τεχνικά λειτουργική. Να μπορεί να διαβαστεί από συστήματα ανίχνευσης. Να είναι αξιόπιστη, ανθεκτική και διαλειτουργική. Με άλλα λόγια, η Ευρώπη δεν ζητά απλώς να ενημερώνεται ο χρήστης, αλλά να δημιουργηθεί μια τεχνική υποδομή αναγνώρισης της τεχνητής προέλευσης του περιεχομένου. Το πρόβλημα είναι προφανές. Στην εποχή της παραγωγικής τεχνητής νοημοσύνης, το περιεχόμενο δεν κυκλοφορεί μόνο μέσα στο περιβάλλον όπου δημιουργήθηκε. Μια εικόνα μπορεί να παραχθεί σε μια εφαρμογή, να ανέβει σε μια πλατφόρμα, να αναπαραχθεί από λογαριασμούς, να ενσωματωθεί σε βίντεο, να γίνει viral και να φτάσει σε ανθρώπους που δεν έχουν κανέναν τρόπο να γνωρίζουν την αρχική της προέλευση. Η σήμανση και η ιχνηλασιμότητα επιχειρούν να απαντήσουν ακριβώς σε αυτό το πρόβλημα της αλυσίδας διάδοσης.
Υπάρχουν όμως και όρια. Οι οδηγίες διαχωρίζουν τη δημιουργία ή ουσιαστική τροποποίηση περιεχομένου από την απλή τεχνική επεξεργασία. Διορθώσεις γραμματικής, μικρές αλλαγές φωτισμού, τεχνική συμπίεση, αποθορυβοποίηση ή βασική μορφοποίηση δεν αντιμετωπίζονται με τον ίδιο τρόπο όπως η προσθήκη αντικειμένων σε μια εικόνα, η αλλαγή του νοήματος ενός κειμένου ή η αλλοίωση της εμφάνισης ενός προσώπου.
Deepfakes, σάτιρα και παραπλάνηση
Το τρίτο πεδίο είναι αυτό που πιθανότατα θα απασχολήσει περισσότερο τη δημόσια συζήτηση. Τα deepfakes. Οι οδηγίες δεν αντιμετωπίζουν ως deepfake κάθε εικόνα που δημιουργήθηκε από AI. Για να εμπίπτει στον ορισμό, το περιεχόμενο πρέπει να μοιάζει με υπαρκτά πρόσωπα, αντικείμενα, τόπους, οντότητες ή γεγονότα και να μπορεί να εμφανιστεί ψευδώς ως αυθεντικό ή αληθινό.
Η πρόθεση του δημιουργού να εξαπατήσει δεν είναι το μόνο κριτήριο. Σημασία έχει και το πώς το κοινό προσλαμβάνει το περιεχόμενο. Αυτό είναι κρίσιμο, γιατί ένα βίντεο ή μια εικόνα μπορεί να κυκλοφορήσει πολύ πέρα από το αρχικό της πλαίσιο. Αυτό που ξεκίνησε ως πείραμα, αστείο ή σάτιρα μπορεί να αναπαραχθεί ως «απόδειξη» σε ένα εντελώς διαφορετικό περιβάλλον.
Οι οδηγίες προβλέπουν πιο ελαφρύ καθεστώς για καλλιτεχνικά, δημιουργικά, σατιρικά ή φανταστικά έργα. Αυτό είναι σημαντικό, γιατί διαφορετικά η ρύθμιση θα μπορούσε να συγκρουστεί με την καλλιτεχνική έκφραση, τον κινηματογράφο, τη σάτιρα ή το gaming. Ωστόσο, ακόμη και εκεί δεν εξαφανίζεται η υποχρέωση διαφάνειας. Η αποκάλυψη της τεχνητής προέλευσης πρέπει να γίνεται με τρόπο που δεν καταστρέφει την εμπειρία του έργου, αλλά εξακολουθεί να ενημερώνει το κοινό.
Εδώ βρίσκεται μια δύσκολη ισορροπία. Η Ευρώπη δεν θέλει να απαγορεύσει τη δημιουργική χρήση της τεχνητής νοημοσύνης. Θέλει όμως να περιορίσει την ασάφεια που επιτρέπει στο τεχνητό να παριστάνει το αυθεντικό και στο κατασκευασμένο να κυκλοφορεί ως γεγονός.
Η δημοσιογραφία δεν εξαιρείται, αλλά προστατεύεται η συντακτική ευθύνη
Το πιο ενδιαφέρον σημείο για τα μέσα ενημέρωσης αφορά τα κείμενα που παράγονται ή τροποποιούνται από AI και δημοσιεύονται με σκοπό την ενημέρωση του κοινού για θέματα δημόσιου ενδιαφέροντος. Σε αυτές τις περιπτώσεις, η βασική αρχή είναι ότι πρέπει να υπάρχει σαφής γνωστοποίηση πως το κείμενο έχει παραχθεί ή τροποποιηθεί τεχνητά.
Τα θέματα δημόσιου ενδιαφέροντος ορίζονται ευρύτατα. Πολιτική, δημόσια διοίκηση, υγεία, περιβάλλον, θεμελιώδη δικαιώματα, επιστήμη, οικονομία και πολιτιστικές εξελίξεις με σημαντικές δημόσιες συνέπειες μπορούν να εμπίπτουν σε αυτή την κατηγορία. Αυτό σημαίνει ότι η ρύθμιση δεν αφορά μόνο τα κλασικά πολιτικά ρεπορτάζ. Μπορεί να αφορά ένα κείμενο για τον καιρό, μια δημόσια προειδοποίηση, μια ανάλυση για την υγεία ή ένα δημοσιευμένο εταιρικό κείμενο με σημασία για επενδυτές.
Ωστόσο, εδώ υπάρχει μια κρίσιμη εξαίρεση. Αν ένα κείμενο έχει παραχθεί ή τροποποιηθεί από ΑΙ και κατόπιν έχει περάσει από ουσιαστικό ανθρώπινο έλεγχο ή συντακτικό έλεγχο και επίσης υπάρχει φυσικό ή νομικό πρόσωπο που αναλαμβάνει τη συντακτική ευθύνη, τότε η υποχρέωση ειδικής σήμανσης μπορεί να μην εφαρμόζεται. Αυτό δεν είναι λεπτομέρεια. Είναι η γραμμή που διαχωρίζει τη χρήση της AI ως εργαλείου μέσα σε μια υπεύθυνη συντακτική διαδικασία από την αυτόματη παραγωγή περιεχομένου χωρίς πραγματική ανθρώπινη εποπτεία.
Οι οδηγίες είναι σαφείς ότι ένας επιφανειακός έλεγχος δεν αρκεί. Δεν θεωρείται ουσιαστικός ανθρώπινος έλεγχος το να περάσει κάποιος ένα κείμενο στα γρήγορα για ορθογραφία ή γραμματική. Χρειάζεται πραγματική εξέταση του περιεχομένου, έλεγχος ουσίας, αξιολόγηση πηγών, δυνατότητα αλλαγής ή απόρριψης του κειμένου και τελικά ανάληψη ευθύνης για τη δημοσίευση.
Για τη δημοσιογραφία, αυτό είναι ίσως το πιο ουσιαστικό μήνυμα των κατευθυντήριων γραμμών. Το πρόβλημα δεν είναι ότι ένας δημοσιογράφος μπορεί να χρησιμοποιήσει ένα εργαλείο τεχνητής νοημοσύνης για περίληψη, μετάφραση, απομαγνητοφώνηση ή υποβοήθηση στη σύνταξη. Το πρόβλημα δημιουργείται όταν η παραγωγή ενημερωτικού περιεχομένου αποσυνδέεται από την ανθρώπινη κρίση και τη συντακτική λογοδοσία.
Το πραγματικό διακύβευμα είναι η εμπιστοσύνη
Οι υποχρεώσεις του άρθρου 50 δεν λύνουν όλα τα προβλήματα της τεχνητής νοημοσύνης. Δεν απαντούν στο ζήτημα της πνευματικής ιδιοκτησίας, δεν θεραπεύουν από μόνες τους την παραπληροφόρηση, δεν εγγυώνται ότι κάθε σήμανση θα παραμείνει άθικτη καθώς το περιεχόμενο ταξιδεύει από πλατφόρμα σε πλατφόρμα. Ούτε μπορούν να καταργήσουν την ανθρώπινη πρόθεση για χειραγώγηση.
Αυτό που επιχειρούν είναι κάτι πιο συγκεκριμένο. Να βάλουν όρια στις περιπτώσεις όπου η τεχνητή νοημοσύνη παριστάνει κάτι που δεν είναι. Άνθρωπο, αυθεντική εικόνα, πραγματική φωνή, δημοσιογραφικό κείμενο, γεγονός. Ο πολίτης πρέπει να ξέρει πότε απέναντί του βρίσκεται μηχανή ή προϊόν μηχανής.
Οι κυρώσεις δείχνουν ότι η ρύθμιση δεν είναι απλώς συμβολική. Η μη συμμόρφωση με τις υποχρεώσεις διαφάνειας μπορεί να οδηγήσει σε πρόστιμα έως 15 εκατομμύρια ευρώ ή, για επιχειρήσεις, έως το 3% του συνολικού παγκόσμιου ετήσιου κύκλου εργασιών, όποιο ποσό είναι υψηλότερο.
Στην πράξη, το άρθρο 50 επιχειρεί να κρατήσει ορατή τη διαχωριστική γραμμή ανάμεσα στο ανθρώπινο και το τεχνητό. Σε μια εποχή όπου το ψεύτικο μπορεί να έχει πρόσωπο, φωνή, ύφος, συναίσθημα και δημοσιογραφική μορφή, η διαφάνεια δεν είναι γραφειοκρατική λεπτομέρεια. Είναι ένας τρόπος να διατηρηθεί η στοιχειώδης δυνατότητα του πολίτη να καταλαβαίνει τι βλέπει, τι ακούει, τι διαβάζει και ποιος, ή τι, του μιλά.
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος