Τεχνητή Νοημοσύνη: Εκτελεστικό διάταγμα Τραμπ κατά των πολιτειακών κανονισμών

Τι αλλάζει με το εκτελεστικό διάταγμα Τραμπ.

Ο Αμερικανός πρόεδρος Ντόναλντ Τραμπ υπέγραψε στις 11 Δεκεμβρίου 2025 εκτελεστικό διάταγμα με στόχο να εμποδίσει τις πολιτείες να θεσπίζουν δικούς τους κανόνες για την τεχνητή νοημοσύνη (ΤΝ), τους οποίους η κυβέρνησή του θεωρεί εμπόδιο στην καινοτομία στον τομέα.

Οι πολιτειακοί νόμοι που ρυθμίζουν την ΤΝ αυξάνονται ραγδαία, ιδίως ως απάντηση στην άνοδο των συστημάτων παραγωγικής τεχνητής νοημοσύνης, όπως το ChatGPT, που δημιουργούν κείμενα και εικόνες. Το 2025, 38 πολιτείες θέσπισαν νόμους που ρυθμίζουν με τον έναν ή τον άλλον τρόπο την τεχνολογία αυτή — από την απαγόρευση της παρενόχλησης μέσω ρομπότ που λειτουργούν με τεχνητή νοημοσύνη έως την απαγόρευση συστημάτων που μπορούν να χειραγωγήσουν τη συμπεριφορά των ανθρώπων.

Σύμφωνα με το εκτελεστικό διάταγμα, η δημιουργία ενός εθνικού πλαισίου για την τεχνητή νοημοσύνη με τη μικρότερη δυνατή κανονιστική επιβάρυνση, αποτελεί πολιτική των ΗΠΑ. Καλεί επίσης τον Γενικό Εισαγγελέα των ΗΠΑ να συστήσει ειδική ομάδα για την τεχνητή νοημοσύνη, με στόχο την αμφισβήτηση πολιτειακών νόμων που δεν συνάδουν με την εν λόγω πολιτική. Παράλληλα, δίνει εντολή στον υπουργό Εμπορίου να εντοπίσει «επαχθείς» πολιτειακούς νόμους που έρχονται σε σύγκρουση με την πολιτική αυτή και να παρακρατεί χρηματοδότηση, στο πλαίσιο του προγράμματος Broadband Equity Access and Deployment (Ίση Ευρυζωνική Πρόσβαση και Ανάπτυξη) από πολιτείες που τους εφαρμόζουν. Από το πεδίο εφαρμογής του διατάγματος εξαιρούνται οι πολιτειακοί νόμοι που αφορούν την ασφάλεια των παιδιών.

Τα εκτελεστικά διατάγματα αποτελούν οδηγίες προς ομοσπονδιακές υπηρεσίες για την εφαρμογή υφιστάμενων νόμων. Το συγκεκριμένο διάταγμα για την ΤΝ κατευθύνει ομοσπονδιακά υπουργεία και υπηρεσίες να αναλάβουν δράσεις τις οποίες η κυβέρνηση υποστηρίζει ότι εμπίπτουν στις νόμιμες αρμοδιότητές τους.

Οι μεγάλες εταιρείες τεχνολογίας έχουν ασκήσει πιέσεις υπέρ της υπερίσχυσης της ομοσπονδιακής ρύθμισης έναντι των πολιτειακών κανόνων για την ΤΝ, υποστηρίζοντας ότι το βάρος της συμμόρφωσης με πολλαπλά κανονιστικά πλαίσια σε διαφορετικές πολιτείες παρεμποδίζει την καινοτομία. Οι υποστηρικτές των πολιτειακών ρυθμίσεων υποστηρίζουν ότι αυτές επιδιώκουν μια ισορροπία μεταξύ προστασίας του δημοσίου συμφέροντος και οικονομικού οφέλους, με χαρακτηριστικά παραδείγματα τις πολιτείες της Καλιφόρνιας, του Κολοράντο, του Τέξας και της Γιούτα.

Ακολουθούν ορισμένοι από τους σημαντικότερους πολιτειακούς νόμους που ρυθμίζουν την Τεχνητή Νοημοσύνη και οι οποίοι θα μπορούσαν να αποτελέσουν στόχο βάσει του εκτελεστικού διατάγματος.

Αλγοριθμικές διακρίσεις

Ο νόμος Consumer Protections for Artificial Intelligence του Κολοράντο είναι ο πρώτος ολοκληρωμένος πολιτειακός νόμος στις ΗΠΑ που επιδιώκει να ρυθμίσει τη χρήση συστημάτων ΤΝ σε αποφάσεις που αφορούν την απασχόληση, τη στέγαση, την πίστωση, την εκπαίδευση και την υγειονομική περίθαλψη. Ωστόσο, η εφαρμογή του έχει καθυστερήσει, καθώς το πολιτειακό κοινοβούλιο εξετάζει τις επιπτώσεις του.

Στόχος του είναι η προστασία των πολιτών από αλγοριθμικές διακρίσεις. Απαιτεί από τους οργανισμούς που χρησιμοποιούν αυτά τα «υψηλού κινδύνου συστήματα» να διενεργούν εκτιμήσεις επιπτώσεων, να ενημερώνουν τους καταναλωτές όταν η προγνωστική τεχνητή νοημοσύνη χρησιμοποιείται για κρίσιμες αποφάσεις που τους αφορούν και να δημοσιοποιούν τα είδη των συστημάτων που χρησιμοποιούν, καθώς και τον τρόπο διαχείρισης των κινδύνων αλγοριθμικών διακρίσεων.

Αντίστοιχος νόμος στο Ιλινόι, ο οποίος θα τεθεί σε ισχύ την 1η Ιανουαρίου 2026, τροποποιεί τον νόμο περί ανθρωπίνων δικαιωμάτων της πολιτείας, καθιστώντας παραβίαση πολιτικών δικαιωμάτων τη χρήση εργαλείων ΤΝ από εργοδότες όταν αυτά οδηγούν σε διακρίσεις.

Διαβάστε επίσης: «Πυρετός» επενδύσεων στην Τεχνητή Νοημοσύνη.

Οι κίνδυνοι που ενέχουν τα μοντέλα θεμελίωσης

Ο νόμος της Καλιφόρνιας Transparency in Frontier Artificial Intelligence Act θεσπίζει δικλίδες ασφαλείας για την ανάπτυξη των πιο ισχυρών μοντέλων ΤΝ. Τα μοντέλα αυτά, γνωστά ως μοντέλα θεμελίωσης, εκπαιδεύονται σε εξαιρετικά μεγάλα και ποικίλα σύνολα δεδομένων και μπορούν να προσαρμοστούν σε ένα ευρύ φάσμα εργασιών χωρίς επιπλέον εκπαίδευση. Σε αυτά περιλαμβάνονται τα μοντέλα στα οποία βασίζονται το ChatGPT της OpenAI και το Gemini της Google.

Τα μοντέλα μηχανικής μάθησης μπορεί να παράγουν αναξιόπιστα αποτελέσματα, γεγονός που δυσχεραίνει τη ρύθμισή τους. Οι εσωτερικοί τους μηχανισμοί είναι αόρατοι για τους χρήστες και, σε ορισμένες περιπτώσεις, ακόμη και για τους δημιουργούς τους, με αποτέλεσμα να χαρακτηρίζονται «μαύρα κουτιά». Ο δείκτης Foundation Model Transparency Index δείχνει ότι αυτά τα μεγάλα μοντέλα είναι συχνά ιδιαίτερα αδιαφανή.

Οι κίνδυνοι από τέτοιου μεγέθους μοντέλα περιλαμβάνουν κακόβουλη χρήση, τεχνικές δυσλειτουργίες και συστημικούς κινδύνους, οι οποίοι θα μπορούσαν να αποδειχθούν καταστροφικοί για την κοινωνία. Για παράδειγμα, ένα τέτοιο μοντέλο θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία όπλων ή για τον συντονισμό κυβερνοεπίθεσης που θα προκαλούσε ζημιές δισεκατομμυρίων δολαρίων.

Ο νόμος της Καλιφόρνιας απαιτεί από τους προγραμματιστές μοντέλων θεμελίωσης να περιγράφουν πώς ενσωματώνουν εθνικά και διεθνή πρότυπα και βέλτιστες πρακτικές που έχουν συμφωνηθεί στον κλάδο. Απαιτεί επίσης από τους προγραμματιστές να παρέχουν μια σύνοψη οποιασδήποτε αξιολόγησης καταστροφικού κινδύνου. Παράλληλα, δίνει εντολή στο Γραφείο Υπηρεσιών Έκτακτης Ανάγκης της πολιτείας να δημιουργήσει έναν μηχανισμό ώστε ο καθένας να μπορεί να αναφέρει ένα κρίσιμο περιστατικό ασφαλείας και να υποβάλλει εμπιστευτικά περιλήψεις τυχόν αξιολογήσεων σχετικά με την πιθανότητα καταστροφικών συνεπειών.

Γνωστοποίηση και ευθύνη

Το Τέξας θέσπισε τον νόμο Texas Responsible AI Governance Act, ο οποίος επιβάλλει περιορισμούς στην ανάπτυξη και τη χρήση συστημάτων ΤΝ για σκοπούς όπως η χειραγώγηση της συμπεριφοράς. Οι διατάξεις «ασφαλούς λιμένα» —δηλαδή οι προβλέψεις για προστασία από νομική ευθύνη— στον νόμο του Τέξας για την τεχνητή νοημοσύνη αποσκοπούν στο να δώσουν κίνητρα στις επιχειρήσεις ώστε να τεκμηριώνουν τη συμμόρφωσή τους με υπεύθυνα πλαίσια διακυβέρνησης της ΤΝ, όπως το NIST AI Risk Management Framework. Καινοτομία του νόμου του Τέξας είναι η πρόβλεψη δημιουργίας ενός «sandbox» — ενός απομονωμένου περιβάλλοντος όπου το λογισμικό μπορεί να δοκιμάζεται με ασφάλεια — για τη δοκιμή της συμπεριφοράς συστημάτων ΤΝ.

Ο νόμος Artificial Intelligence Policy Act της Γιούτα θεσπίζει υποχρεώσεις διαφάνειας για οργανισμούς που χρησιμοποιούν εργαλεία παραγωγικής τεχνητής νοημοσύνης στις συναλλαγές τους με πελάτες. Οι ρυθμίσεις αυτές κατοχυρώνουν ότι η επιχείρηση που αξιοποιεί την ΤΝ διατηρεί την πλήρη ευθύνη για τυχόν ζημίες ή υποχρεώσεις έναντι των καταναλωτών και δεν μπορεί να αποποιηθεί την ευθύνη αποδίδοντάς την στο ίδιο το σύστημα.

Οι πολιτείες λαμβάνουν και άλλα νομικά και πολιτικά μέτρα για την προστασία των πολιτών από τους δυνητικούς κινδύνους της τεχνητής νοημοσύνης. Ο Ρεπουμπλικανός κυβερνήτης της Φλόριντα, Ρον ΝτεΣάντις, έχει δηλώσει ότι αντιτίθεται στις ομοσπονδιακές προσπάθειες και ότι έχει προτείνει έναν «χάρτη δικαιωμάτων για την ΤΝ» στη Φλόριντα, με στόχο την αντιμετώπιση των «προφανών κινδύνων» της τεχνολογίας.

Δεν είναι σαφές ποιος θα είναι ο αντίκτυπος του εκτελεστικού διατάγματος. Σύμφωνα με ειδικούς το διάταγμα είναι παράνομο επειδή μόνο το Κογκρέσο μπορεί να αντικαταστήσει τους νόμους των πολιτειών.

ΠΗΓΗ: The Conversation

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber

Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος