Καθώς όλο και περισσότεροι άνθρωποι στρέφονται στην τεχνητή νοημοσύνη για συμβουλές, ορισμένοι δικηγόροι στις ΗΠΑ προειδοποιούν τους πελάτες τους να μην αντιμετωπίζουν τα chatbots ως έμπιστα πρόσωπα, ιδίως όταν διακυβεύεται η ελευθερία ή η νομική τους ευθύνη.
Οι προειδοποιήσεις αυτές εντάθηκαν μετά από απόφαση ομοσπονδιακού δικαστή στη Νέα Υόρκη φέτος, σύμφωνα με την οποία ο πρώην διευθύνων σύμβουλος μιας εταιρείας που κήρυξε πτώχευση, δεν μπορεί να αποκρύψει τις συνομιλίες του με το chatbot από τους εισαγγελείς που τον κατηγορούσαν για απάτη. Μετά την απόφαση αυτή, δικηγόροι επισημαίνουν ότι συνομιλίες με chatbots όπως το Claude της Anthropic και το ChatGPT της OpenAI μπορεί να καταλήξουν στα χέρια εισαγγελικών αρχών ή αντιδίκων σε αστικές υποθέσεις.
«Λέμε στους πελάτες μας να είναι ιδιαίτερα προσεκτικοί», δήλωσε η δικηγόρος Αλεξάνδρεια Γκουτιέρεζ Σουέτ από το δικηγορικό γραφείο Kobre & Kim στη Νέα Υόρκη.
Στις ΗΠΑ, οι επικοινωνίες μεταξύ πελάτη και δικηγόρου θεωρούνται σχεδόν πάντα εμπιστευτικές. Ωστόσο, τα chatbots δεν είναι δικηγόροι, και οι νομικοί συμβουλεύουν τους πελάτες να λαμβάνουν μέτρα ώστε να διασφαλίζουν μεγαλύτερη ιδιωτικότητα στις αλληλεπιδράσεις τους με τέτοια εργαλεία.
Περισσότερες από δώδεκα μεγάλες δικηγορικές εταιρείες προειδοποιούν τους πελάτες τους με email και συστάσεις που αναρτούν στις ιστοσελίδες τους. Παρόμοιες προειδοποιήσεις ενσωματώνονται πλέον και σε συμβάσεις συνεργασίας. Για παράδειγμα, το δικηγορικό γραφείο Sher Tremonte αναφέρει ότι η κοινοποίηση νομικών συμβουλών σε chatbot μπορεί να ακυρώσει το λεγόμενο «δικηγορικό απόρρητο».
Μια δικαστική απόφαση «καμπανάκι»
Η υπόθεση που προκάλεσε τις αντιδράσεις αφορά τον Μπράντλεϊ Χέπνερ, πρώην επικεφαλής της χρεοκοπημένης εταιρείας GWG Holdings, ο οποίος κατηγορείται για απάτη και έχει δηλώσει αθώος. Ο Χέπνερ χρησιμοποίησε το chatbot Claude για να συντάξει αναφορές σχετικά με την υπόθεσή του, τις οποίες μοιράστηκε με τους δικηγόρους του. Οι τελευταίοι υποστήριξαν ότι οι συνομιλίες αυτές θα έπρεπε να προστατεύονται, καθώς περιείχαν στοιχεία της υπερασπιστικής στρατηγικής. Ωστόσο, οι εισαγγελείς αντέτειναν ότι είχαν δικαίωμα πρόσβασης, καθώς οι δικηγόροι δεν συμμετείχαν άμεσα στις συνομιλίες και το δικηγορικό απόρρητο δεν ισχύει για chatbots.
Ο ομοσπονδιακός δικαστής Τζεντ Ράκοφ αποφάσισε ότι ο Χέπνερ πρέπει να παραδώσει 31 σχετικά έγγραφα, επισημαίνοντας ότι δεν υφίσταται —ούτε μπορεί να υπάρξει— σχέση δικηγόρου–πελάτη δεν υπάρχει «ούτε μπορεί να υπάρξει μεταξύ ενός χρήστη AI και μιας πλατφόρμας όπως το Claude»
Νομικές «γκρίζες ζώνες»
Τα δικαστήρια ήδη αντιμετωπίζουν προκλήσεις από την αυξανόμενη χρήση τεχνητής νοημοσύνης σε νομικές διαδικασίες, με περιστατικά όπου έχουν κατατεθεί έγγραφα που περιείχαν ανύπαρκτες υποθέσεις δημιουργημένες από τεχνητή νοημοσύνη (ΤΝ). Η απόφαση του Ράκοφ ήταν μια σημαντική πρώιμη δοκιμασία στην εποχή των chatbots για τις βασικές νομικές προστασίες που διέπουν τις επικοινωνίες δικηγόρου-πελάτη και το υλικό που προετοιμάζεται για δικαστικές διαδικασίες.
Την ίδια ημέρα με την απόφαση του Ράκοφ, ο Αμερικανός δικαστής Άντονι Πάτι στο Μίσιγκαν δήλωσε ότι μια γυναίκα που εκπροσωπούσε τον εαυτό της σε μια αγωγή που άσκησε εναντίον της πρώην εταιρείας της δεν χρειαζόταν να παραδώσει τις συνομιλίες της με το ChatGPT σχετικά με τους ισχυρισμούς περί απασχόλησης που έγιναν στην υπόθεση. Όπως σημείωσε, τα προγράμματα τεχνητής νοημοσύνης «είναι εργαλεία, όχι νομικά πρόσωπα».
Παράλληλα, οι όροι χρήσης των εταιρειών OpenAI και Anthropic αναφέρουν ότι τα δεδομένα των χρηστών μπορεί να κοινοποιηθούν σε τρίτους, ενώ προτρέπουν τους χρήστες να συμβουλεύονται ειδικούς για νομικά ζητήματα.
Οι δικηγόροι θέτουν κανόνες χρήσης
Οι νομικοί προτείνουν πλέον συγκεκριμένες πρακτικές, όπως η επιλογή πιο «κλειστών» συστημάτων ΤΝ για επαγγελματική χρήση ή ακόμη και η χρήση συγκεκριμένης διατύπωσης στις ερωτήσεις προς τα chatbots. Ορισμένα δικηγορικά γραφεία προτείνουν να δηλώνεται ρητά ότι η έρευνα γίνεται κατόπιν εντολής δικηγόρου, ώστε να ενισχυθεί η νομική προστασία.
Παράλληλα, η χρήση τεχνητής νοημοσύνης αρχίζει να ρυθμίζεται και συμβατικά, με ρήτρες που προειδοποιούν ότι η κοινοποίηση ευαίσθητων πληροφοριών σε τέτοιες πλατφόρμες μπορεί να έχει νομικές συνέπειες. Πληροφορίες σχετικά με τη χρήση τεχνητής νοημοσύνης γίνονται επίσης συνηθισμένες στις συμβάσεις που χρησιμοποιούν δικηγορικά γραφεία με πελάτες, σύμφωνα με μια ανασκόπηση του Reuters για τις συμβάσεις που δημοσιεύτηκε σε ιστότοπο της κυβέρνησης των ΗΠΑ.
Οι ειδικοί εκτιμούν ότι μελλοντικές αποφάσεις θα αποσαφηνίσουν το νομικό πλαίσιο γύρω από τη χρήση ΤΝ ως αποδεικτικό στοιχείο.
Μέχρι τότε, ωστόσο, ισχύει ένας βασικός κανόνας: μην μοιράζεστε πληροφορίες για την υπόθεσή σας με κανέναν άλλον πέρα από τον δικηγόρο σας — ούτε καν με τεχνητή νοημοσύνη.
Πηγή: Reuters
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Γίνε μέλος στο κανάλι μας στο Viber
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος