Πάνω από 1000 ειδικοί ζητούν παύση της ανάπτυξης συστημάτων ισχυρότερων από το GPT-4

Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους διαχειρίσιμοι, τονίζουν οι ειδικοί.

Περισσότεροι από 1.000 εμπειρογνώμονες και ερευνητές τεχνητής νοημοσύνης καθώς και στελέχη της βιομηχανίας ζητούν εξάμηνη παύση της ανάπτυξης συστημάτων που είναι ισχυρότερα από το GPT-4 της OpenAI, που κυκλοφόρησε πρόσφατα, σε μια ανοιχτή επιστολή που επικαλείται πιθανούς κινδύνους για την κοινωνία.

Στην επιστολή που δημοσιεύθηκε από τη δεξαμενή σκέψης Future of Life Institute και υπογράφεται από σημαντικούς φορείς της τεχνητής νοημοσύνης, μεταξύ των οποίων και ο Ίλον Μασκ, συνιδρυτής της OpenAI που ανέπτυξε το ChatGPT και το GPT-4, ο Εμάντ Μοστάκε, ιδρυτής της Stability AI με έδρα το Λονδίνο, και ο Στιβ Βόζνιακ, συνιδρυτής της Apple. Στους υπογράφοντες περιλαμβάνονται επίσης μηχανικοί από τις εταιρείες Amazon, DeepMind, Google, Meta και Microsoft, καθώς και ακαδημαϊκοί, όπως ο γνωστικός επιστήμονας Γκάρι Μάρκους.

«Τους τελευταίους μήνες τα εργαστήρια τεχνητής νοημοσύνης έχουν εγκλωβιστεί σε μια ανεξέλεγκτη κούρσα για την ανάπτυξη όλο και πιο ισχυρών ψηφιακών μυαλών που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα», αναφέρεται στην επιστολή.

«Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους διαχειρίσιμοι», τονίζουν οι συντάκτες της επιστολής, οι οποίοι επικαλούνται μια ανάρτηση που έκανε ο συνιδρυτής του OpenAI, Σαμ Άλτμαν, τον περασμένο Φεβρουάριο.

«Κάποια στιγμή, μπορεί να είναι σημαντικό να υπάρξει ανεξάρτητος έλεγχος πριν από την έναρξη της εκπαίδευσης μελλοντικών συστημάτων, και για τις πιο προηγμένες προσπάθειες, να συμφωνηθεί ο περιορισμός του ρυθμού αύξησης των υπολογιστών που χρησιμοποιούνται για τη δημιουργία νέων μοντέλων», είχε γράψει ο Άλτμαν.

Εάν οι ερευνητές δεν σταματήσουν εθελοντικά τις εργασίες τους σε μοντέλα τεχνητής νοημοσύνης πιο ισχυρά από το GPT-4,, τότε θα πρέπει να παρέμβουν οι κυβερνήσεις, υποστηρίζουν οι εμπειρογνώμονες.

«Αυτό δεν σημαίνει παύση της ανάπτυξης της τεχνητής νοημοσύνης γενικά, είναι απλώς ένα βήμα πίσω από την επικίνδυνη κούρσα προς ολοένα και μεγαλύτερα απρόβλεπτα μοντέλα με αναδυόμενες δυνατότητες», εξηγούν στην επιστολή τους.

Όπως αναφέρει η Guardian, από την κυκλοφορία του GPT-4, η OpenAI έχει προσθέσει «plugins» στο σύστημα τεχνητής νοημοσύνης, δίνοντάς του τη δυνατότητα να αναζητά δεδομένα στο Διαδίκτυο, να προγραμματίζει διακοπές και να πραγματοποιεί διαδικτυακές αγορές. Ωστόσο έχει διαπιστωθεί ότι τα συστήματά της είναι πιο ισχυρά από ό,τι ήταν όταν πρωτοκυκλοφόρησαν.

Οι ερευνητές θα συνεχίσουν να πειραματίζονται με το GPT-4 τις επόμενες εβδομάδες και μήνες και είναι πιθανό να ανακαλύψουν νέους τρόπους χρήσης του συστήματος που θα βελτιώσουν την ικανότητά του να λύνει δύσκολα προβλήματα. Πρόσφατα διαπιστώθηκε ότι η τεχνητή νοημοσύνη δίνει πολύ πιο ακριβείς απαντήσεις αν οι χρήστες της ζητήσουν να το κάνει «με το ύφος ενός έμπειρου ειδικού».

ΠΗΓΗ: Guardian, Reuters

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος