Ρήξη μεταξύ Ουάσιγκτον και Anthropic για στρατιωτική χρήση του Claude

Η εταιρεία τεχνητής νοημοσύνης αντιστέκεται στις απαιτήσεις του Πενταγώνου για πλήρη πρόσβαση στα συστήματά της.

Η αμερικανική κυβέρνηση απειλεί να τερματίσει τα στρατιωτικά συμβόλαια με την Anthropic εάν δεν επιτρέψει απεριόριστη στρατιωτική χρήση της τεχνολογίας τεχνητής νοημοσύνης που αναπτύσσει. Η εταιρεία, ωστόσο, επιμένει στη θέση της. Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, δήλωσε στις 26 Φεβρουαρίου ότι «η συνείδησή του δεν του επιτρέπει να συναινέσει στο αίτημα του Πενταγώνου» για απεριόριστη πρόσβαση στα συστήματα τεχνητής νοημοσύνης της εταιρείας του.

«Σε ένα περιορισμένο σύνολο περιπτώσεων, πιστεύουμε ότι η τεχνητή νοημοσύνη μπορεί να υπονομεύσει, αντί να υπερασπιστεί, τις δημοκρατικές αξίες», έγραψε. «Ορισμένες χρήσεις, επίσης, βρίσκονται απλώς εκτός των ορίων όσων η σημερινή τεχνολογία μπορεί να επιτελέσει με ασφάλεια και αξιοπιστία» πρόσθεσε.

Η δήλωση του Αμοντέι δημοσιεύθηκε λιγότερο από 24 ώρες πριν από την προθεσμία της Παρασκευής (27/02) που είχε θέσει το Υπουργείο Άμυνας για την παροχή πλήρους πρόσβασης στο σύστημα Claude. Η Anthropic αναπτύσσει το chatbot Claude και είναι η τελευταία από τις ομοειδείς της που δεν έχει διαθέσει την τεχνολογία της σε ένα νέο εσωτερικό δίκτυο του αμερικανικού στρατού.

Τον περασμένο Ιούλιο, η εταιρεία εξασφάλισε συμβόλαιο ύψους 200 εκατ. δολαρίων (167 εκατ. ευρώ) από το Υπουργείο Πολέμου για την «πρωτοτυποποίηση προηγμένων δυνατοτήτων τεχνητής νοημοσύνης που ενισχύουν την εθνική ασφάλεια των ΗΠΑ», όπως ανέφερε. Το 2024, συνήψε επίσης συνεργασία με την Palantir Technologies για την ενσωμάτωση του Claude σε λογισμικό αμερικανικών υπηρεσιών πληροφοριών.

Διαβάστε επίσης: Anthropic: Κινέζικες εταιρείες φέρεται να εκμεταλλεύτηκαν το chatbot της για να βελτιώσουν τα δικά τους μοντέλα

Ο υπουργός Άμυνας Πιτ Χέγκσεθ φέρεται να δήλωσε στις 24 Φεβρουαρίου ότι θα ακυρώσει το συμβόλαιο των 200 εκατ. δολαρίων και θα χαρακτηρίσει την εταιρεία «κίνδυνο για την εφοδιαστική αλυσίδα» εάν δεν συμμορφωθεί με το αίτημα του Πενταγώνου.

Εάν η Anthropic χαρακτηριστεί ως κίνδυνος για την εφοδιαστική αλυσίδα βάσει της αμερικανικής νομοθεσίας περί δημόσιων προμηθειών, η κυβέρνηση θα μπορεί να την αποκλείσει από τη διεκδίκηση μελλοντικών συμβολαίων, να αφαιρέσει τα προϊόντα της από διαδικασίες αξιολόγησης και να υποδεικνύει στους κύριους αναδόχους να μην την χρησιμοποιούν.

Σύμφωνα με αναφορές για τη συνάντηση Χέγκσεθ – Αμοντέι, ο Αμερικανός υπουργός απείλησε επίσης να επικαλεστεί τον Νόμο περί Αμυντικής Παραγωγής (Defense Production Act), ο οποίος παρέχει στον πρόεδρο των ΗΠΑ ευρείες εξουσίες να υποχρεώνει ιδιωτικές εταιρείες να δίνουν προτεραιότητα σε ανάγκες εθνικής ασφάλειας, συμπεριλαμβανομένης της πρόσβασης στην τεχνολογία τους.

Στη δήλωσή του, ο Αμοντέι ανέφερε ότι οι συμβάσεις με το Υπουργείο Πολέμου δεν θα πρέπει να περιλαμβάνουν χρήσεις του Claude για μαζική εγχώρια παρακολούθηση ούτε την ενσωμάτωσή του σε πλήρως αυτόνομα οπλικά συστήματα. Σημείωσε επίσης ότι θεωρεί πως αυτές οι δικλίδες ασφαλείας αποτελούν τον λόγο πίσω από την απειλή του υπουργείου να αποκλείσει την Anthropic από τη στρατιωτική χρήση στις ΗΠΑ.

Όπως ανέφερε, ο Αμοντέι, οι δύο απειλές είναι «εκ φύσεως αντιφατικές», καθώς η μία χαρακτηρίζει την Anthropic κίνδυνο για την ασφάλεια, ενώ η άλλη δηλώνει ότι το Claude είναι «απαραίτητο για την εθνική ασφάλεια». Αναγνώρισε ότι το Υπουργείο Πολέμου μπορεί να επιλέγει συνεργάτες που ευθυγραμμίζονται περισσότερο με το όραμά του, ωστόσο «δεδομένης της σημαντικής αξίας που προσφέρει η τεχνολογία της Anthropic στις ένοπλες δυνάμεις μας, ελπίζουμε ότι θα επανεξετάσουν», ανέφερε η εταιρεία.

Το chatbot έχει ήδη υιοθετηθεί και χρησιμοποιείται σε διαβαθμισμένα δίκτυα της αμερικανικής κυβέρνησης, σε εθνικά πυρηνικά εργαστήρια, καθώς και για ανάλυση πληροφοριών.

Διαβάστε επίσης: Διάσκεψη κορυφής για την AI στο Νέο Δελχί: Έκκληση για μία Τεχνητή Νοημοσύνη «ασφαλή, αξιόπιστη και ακμαία»

Η Anthropic αναθεωρεί μια βασική δέσμευση ασφάλειας

Η Anthropic, εδώ και αρκετό χρόνο, εμφανίζεται ως η πιο υπεύθυνη και προσανατολισμένη στην ασφάλεια μεταξύ των κορυφαίων εταιρειών τεχνητής νοημοσύνης, από την ίδρυσή της το 2021, όταν οι ιδρυτές της αποχώρησαν από την OpenAI για να δημιουργήσουν τη νεοφυή εταιρεία.

Την Τρίτη, 24 Φεβρουαρίου, η Anthropic δήλωσε σε συνέντευξή της στο περιοδικό Time, ότι εγκαταλείπει τη δέσμευσή της πως δεν θα κυκλοφορήσει σύστημα τεχνητής νοημοσύνης αν δεν μπορεί να εγγυηθεί ότι τα μέτρα ασφαλείας είναι επαρκή. Αντί αυτού, παρουσίασε μια νέα εκδοχή της πολιτικής «υπεύθυνης κλιμάκωσης», η οποία περιγράφει το πλαίσιο διαχείρισης καταστροφικών κινδύνων από την εν λόγω τεχνολογία.

Ο επικεφαλής επιστημονικός υπεύθυνος της Anthropic, Τζάρεντ Κάπλαν, δήλωσε στο αμερικανικό περιοδικό ότι η παρεμπόδιση της εταιρείας από την εκπαίδευση νέων μοντέλων, ενώ οι ανταγωνιστές προχωρούν χωρίς ανάλογα μέτρα προστασίας, δεν θα την βοηθούσε να παραμείνει ανταγωνιστική στην κούρσα της τεχνητής νοημοσύνης.

«Εάν ένας προγραμματιστής σταματούσε την ανάπτυξη για να εφαρμόσει μέτρα ασφαλείας, ενώ άλλοι συνέχιζαν χωρίς ισχυρές δικλίδες προστασίας, αυτό θα μπορούσε να οδηγήσει σε έναν λιγότερο ασφαλή κόσμο», αναφέρει η εταιρεία.

«Οι εταιρείες με τα πιο αδύναμα μέτρα ασφαλείας θα καθορίζουν τον ρυθμό και οι πιο υπεύθυνοι παίκτες θα χάσουν τη δυνατότητά τους να διεξάγουν έρευνα ασφάλειας και να προάγουν το δημόσιο όφελος» σημειώνει.

Η πολιτική αυτή διαχωρίζει τις ελπίδες της Anthropic για την εφαρμογή προτύπων ασφαλείας στον κλάδο από τους δικούς της στόχους ως εταιρεία, όπου η ασφάλεια εξακολουθεί να αποτελεί προτεραιότητα για αυτήν. Σύμφωνα με την εταιρεία, το επικαιροποιημένο πλαίσιο προβλέπει «φιλόδοξους αλλά εφικτούς» οδικούς χάρτες ασφάλειας για τα μοντέλα της, καθώς και δημοσίευση εκθέσεων κινδύνου που θα αποτυπώνουν τους αναμενόμενους κινδύνους και θα τεκμηριώνουν κατά πόσον δικαιολογείται η κυκλοφορία ενός μοντέλου.

Πηγή: Euronews

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber

Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος