Η απρόβλεπτη φύση της τεχνητής νοημοσύνης συνεχίζει να εκπλήσσει τους επιστήμονες

Οι αλγόριθμοι τεχνητής νοημοσύνης ανακαλύπτουν απροσδόκητες λύσεις για την επίλυση προβλημάτων, οι οποίες εκπλήσσουν τους προγραμματιστές τους. Ωστόσο, πολλοί ανησυχούν για το αν θα μπορούμε να τους ελέγχουμε στο μέλλον.

Οι υπαλλήλοι της Google δούλευαν πολλούς μήνες πάνω σε έναν αλγόριθμο, σχεδιασμένο για να κατευθύνει ένα μη επανδρωμένο αερόστατο από το Πουέρτο Ρίκο έως το Περού. Αλλά κάτι δεν πήγαινε καλά. Το αερόστατο, το οποίο ελεγχόταν από τον αλγόριθμο, συνέχισε να απομακρύνεται από την πορεία του.

Ο Salvatore Candido του πλέον ανενεργού Project Loon της Google, που είχε ως στόχο να φέρει πρόσβαση στο Διαδίκτυο σε απομακρυσμένες περιοχές μέσω των αερόστατων, δεν μπορούσε να εξηγήσει τι πήγε λάθος. Οι συνάδελφοί του τελικά ανέκτησαν τον έλεγχο του συστήματος και επανάφεραν το αερόστατο στην προκαθορισμένη πορεία του.

Αργότερα, οι ερευνητές της Google συνειδητοποίησαν ότι το σύστημα τεχνητής νοημοσύνης (AI) που βρισκόταν πάνω στο αερόστατο, ακολουθούσε μια αρχαία τεχνική πλοήγησης την οποία ανέπτυξε για πρώτη φορά ο άνθρωπος πριν από αιώνες, αν όχι χιλιάδες χρόνια, πριν. Με άλλα λόγια, τα αερόστατα είχαν μάθει να αντιμετωπίζουν μόνα τους τις δυσμενείς καιρικές συνθήκες, γεγονός που εξέπληξε όλους τους ερευνητές.

«Γρήγορα συνειδητοποιήσαμε ότι το σύστημα μας είχε ξεγελάσει όταν το πρώτο αερόστατο ακολούθησε αυτήν την τεχνική σημειώνοντας ρεκόρ χρόνου πτήσης από το Πουέρτο Ρίκο προς το Περού», έγραψε ο Candido σε άρθρο του στο Medium. «Δεν έχω νιώσει ποτέ πιο έξυπνος και πιο χαζός, ταυτόχρονα».

Η απρόβλεπτη φύση της τεχνητής νοημοσύνης συνεχίζει να εκπλήσσει τους επιστήμονες

Σε αντίθεση με τα παραδοσιακά προγράμματα υπολογιστών, τα συστήματα ΑΙ έχουν σχεδιαστεί για να διερευνούν και να αναπτύσσουν νέες προσεγγίσεις σε εργασίες για τις οποίες δεν τους έχουν δώσει προκαθορισμένες οδηγίες οι επιστήμονες.

Όμως, καθώς μαθαίνουν πώς να εκτελούν αυτά τα καθήκοντα, τα συστήματα ΑΙ εφαρμόζουν μια προσέγγιση τόσο εφευρετική που εκπλήσσει ακόμη και τους ανθρώπους που εργάζονται συνέχεια με τέτοια συστήματα. Αυτό μπορεί να είναι καλό, αλλά μπορεί και να κάνει τα πράγματα που ελέγχονται από το AI, επικίνδυνα απρόβλεπτα. Για παράδειγμα, τα ρομπότ και τα αυτόνομα αυτοκίνητα θα μπορούσαν να λαμβάνουν αποφάσεις που θα έθεταν τους ανθρώπους σε κίνδυνο.

Πώς είναι δυνατόν για ένα σύστημα AI να «ξεγελάσει» τους ανθρώπους; Μήπως θα έπρεπε να περιορίσουμε το μυαλό των μηχανών με κάποιο τρόπο, για να διασφαλίσουμε ότι δεν θα προκύψει κάποια απρόβλεπτη καταστροφή;

Η στιγμή που πραγματικά ενθουσίασε τους ανθρώπους σχετικά με τις δυνατότητες του AI, λέει ο Mark Riedl από το Ινστιτούτο Τεχνολογίας της Γεωργίας στις ΗΠΑ, ήταν όταν η DeepMind έδειξε πώς ένα σύστημα μηχανικής μάθησης είχε μάθει να παίζει το παιχνίδι Go, και στη συνέχεια κέρδισε έναν από τους καλύτερους παίκτες στον κόσμο.

«Ανακάλυψε νέες στρατηγικές ή τακτικές που κανείς δεν είχε χρησιμοποιήσει πριν, ή τουλάχιστον πολλοί άνθρωποι δεν τις γνώριζαν», εξηγεί ο Riedl. Ορισμένοι όμως επιστήμονες, αναρωτιούνται εάν μια εφευρετική τεχνητή νοημοσύνη θα μπορούσε μια μέρα να θέσει σε σοβαρό κίνδυνο τον άνθρωπο.

«Είναι αστείο να πιστεύουμε ότι θα είμαστε σε θέση να προβλέψουμε ή να διαχειριστούμε την κακή συμπεριφορά των AI όταν δεν μπορούμε καν να φανταστούμε την πιθανή συμπεριφορά τους», έγραψε ο Jonathan Tapson από το Πανεπιστήμιο του Δυτικού Σίδνεϊ μετά την ιστορική νίκη του AlphaGo.

Η απρόβλεπτη φύση της τεχνητής νοημοσύνης συνεχίζει να εκπλήσσει τους επιστήμονες

Το σημαντικό πράγμα που πρέπει να θυμάστε, λέει ο Riedl, είναι ότι τα συστήματα AI δεν σκέφτονται σαν τους ανθρώπους. Τα νευρωνικά τους δίκτυα είναι εμπνευσμένα από τους εγκεφάλους των ζώων, αλλά ουσιαστικά είναι «εξερευνητικές συσκευές». Όταν προσπαθούν να κάνουν μια εργασία ή να λύσουν ένα πρόβλημα, δεν έχουν προκαταλήψεις για τον ευρύτερο κόσμο. Απλώς προσπαθούν να βρουν μια λύση.

«Εμείς οι άνθρωποι κουβαλάμε διάφορα μέσα μας, σκεφτόμαστε τους κανόνες», λέει ο Riedl. «Τα συστήματα τεχνητής νοημοσύνης δεν καταλαβαίνουν καν τους κανόνες».

Ένας αλγόριθμος ανακάλυψε ότι, κατά τη διάρκεια ενός παιχνιδιού, μπορεί να πηδήξει από ένα βράχο και να πάρει μαζί του τον αντίπαλό του. Είναι σαν τα άτομα με σύνδρομο savant, προσθέτει ο Riedl, τα οποία έχουν αναπτυξιακές διαταραχές, όπως αυτισμό, αλλά επιδεικνύουν εκπληκτικές ικανότητες στην μουσική, την τέχνη και τα μαθηματικά.

Ένας τρόπος με τον οποίο η τεχνητή νοημοσύνη μπορεί να μας εκπλήξει, είναι η ικανότητά της να αντιμετωπίζει διαφορετικά προβλήματα, χρησιμοποιώντας το ίδιο βασικό σύστημα. Πρόσφατα, ερευνητές ζήτησαν από ένα εργαλείο μηχανικής εκμάθησης σχεδιασμένο να δημιουργεί παραγράφους κειμένου, να εκτελέσει μια πολύ διαφορετική λειτουργία: να παίξει μια παρτίδα σκάκι.

Το εν λόγω σύστημα ονομάζεται GPT-2 και δημιουργήθηκε από την εταιρεία έρευνας και ανάπτυξης OpenAI. Εκπαιδευμένο σε εκατομμύρια διαδικτυακά άρθρα ειδήσεων και ιστοσελίδες, το GPT-2 μπορεί να προβλέψει την επόμενη λέξη σε μια πρόταση με βάση τις προηγούμενες λέξεις. Δεδομένου ότι οι κινήσεις στο σκάκι μπορούν να αναπαρασταθούν με αλφαριθμητικούς χαρακτήρες, ο προγραμματιστής Shawn Presser θεώρησε ότι αν εκπαιδεύσει τον αλγόριθμο σε αρχεία σκακιστικών αγώνων, το εργαλείο θα μπορούσε να μάθει πώς να παίζει, προβλέποντας τις κινήσεις του αντιπάλου του.

Ο Presser εκπαίδευσε το σύστημα σε 2,4 εκατομμύρια παρτίδες σκακιού. «Δεν ήμουν καθόλου σίγουρος ότι ήταν εφικτό. Αλλά το έκανε. Δεν είναι τόσο καλό όσο οι ειδικά σχεδιασμένοι υπολογιστές σκακιού – αλλά είναι σε θέση να παίζει δύσκολες παρτίδες με επιτυχία.

Ένας χώρος όπου η τεχνητή νοημοσύνη φαίνεται να θριαμβεύει, είναι τα βιντεοπαιχνίδια. Υπάρχουν πάρα πολλές αναφορές για εκπληκτικά πράγματα που έχουν κάνει οι αλγόριθμοι σε εικονικά περιβάλλοντα. Πριν από δύο χρόνια, η ερευνήτρια της DeepMind Victoria Krakovna, ζήτησε από τους αναγνώστες του blog της, να μοιραστούν ιστορίες για στιγμές που το AI έλυσε δύσκολα προβλήματα, με απρόβλεπτα απαράδεκτους τρόπους. Για παράδειγμα, ένας αλγόριθμος παιχνιδιού έμαθε να «σκοτώνεται» στο τέλος του επιπέδου 1, για να αποφύγει τον θάνατο στο δεύτερο επίπεδο.

Ο ερευνητής και ειδικός πάνω στην τεχνητή νοημοσύνη και τα βιντεοπαιχνίδια Julian Togelius από τη Σχολή Μηχανικών του Πανεπιστημίου της Νέας Υόρκης, εξηγεί ότι αυτά είναι κλασικά παραδείγματα σφάλματος «κατανομής ανταμοιβής». Όταν ζητείται από ένα σύστημα AI να ολοκληρώσει κάτι, αυτό μπορεί να επινοήσει παράξενες και απροσδόκητες μεθόδους για να επιτύχει τον στόχο του, όπου ο σκοπός αγιάζει πάντα τα μέσα. Εμείς οι άνθρωποι, σπάνια κρατάμε μια τέτοια στάση. Τα μέσα και οι κανόνες που διέπουν τον τρόπο που πρέπει να παίζουμε, έχουν σημασία.

Ο αλγόριθμος έμαθε να συσχετίζει το τρέξιμο μέχρι τη γωνία, με οικονομική επιβράβευση. Ο Togelius και οι συνάδελφοί του διαπίστωσαν ότι όταν τα συστήματα AI δοκιμάζονται υπό ειδικές συνθήκες, επιδεικνύουν αυτή την αφοσίωση στο στόχο τους.

Αυτή είναι μια από τις παγίδες της «ενίσχυσης της μάθησης», όπου ένα σύστημα AI επινοεί μια λανθασμένη στρατηγική, βασισμένη στο περιβάλλον του. Το AI δεν ξέρει γιατί πέτυχε, μπορεί να βασίσει τις ενέργειές του μόνο σε γνώρισμους συσχετισμούς. Όπως δηλαδή οι πρώτοι άνθρωποι που άρχισαν να συσχετίζουν τελετές με τις αλλαγές του καιρού.

Πέρυσι, ένας ρομποτικός βραχίονας σε ένα εργοστάσιο στο Βερολίνο που ανέπτυξε η αμερικανική εταιρεία Covariant, επινόησε απροσδόκητους τρόπους ταξινόμησης αντικειμένων καθώς αυτά περνούν από τον μεταφορικό ιμάντα. Παρά το γεγονός ότι δεν έχει προγραμματιστεί ειδικά να κάνει αυτό, το AI που ελέγχει τον βραχίονα, έμαθε να στοχεύει στο κέντρο των αντικειμένων που είχαν διαφανή συσκευασία, ώστε να μπορεί να τα σηκώνει επιτυχώς κάθε φορά.

Ο Jeff Clune από το OpenAI, συνεργάστηκε πρόσφατα με συναδέλφους του από όλο τον κόσμο για να συλλέξει παραδείγματα όπου τα συστήματα ΑΙ ανέπτυξαν έξυπνες λύσεις. Ο Clune υποστηρίζει ότι η διερευνητική φύση της τεχνητής νοημοσύνης είναι θεμελιώδης για τη μελλοντική επιτυχία της.

Καθώς τα συστήματα τεχνητής νοημοσύνης επινοούν καλύτερους τρόπους για τη διάγνωση ασθενειών ή για την παροχή προμηθειών έκτακτης ανάγκης σε ανθρώπους, θα μπορέσουν μελλοντικά ακόμη και να σώσουν ζωές χάρη στην ικανότητά τους να βρίσκουν νέους τρόπους επίλυσης παλαιών προβλημάτων, προσθέτει ο Clune. Ωστόσο, ο επιτσήμονα πιστεύει ότι όσοι αναπτύσσουν τέτοια συστήματα, θα πρέπει να είναι ανοιχτοί και ειλικρινείς σχετικά με την απρόβλεπτη φύση τους, ώστε να βοηθήσουν το κοινό να κατανοήσει πώς λειτουργεί η τεχνητή νοημοσύνη.

ΠΗΓΗ: BBC

Όλες οι Ειδήσεις από την Ελλάδα και τον Κόσμο,  στο ertnews.gr
Διάβασε όλες τις ειδήσεις μας στο Google
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
Προσοχή! Επιτρέπεται η αναδημοσίευση των πληροφοριών του παραπάνω άρθρου (όχι αυτολεξεί) ή μέρους αυτών μόνο αν:
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος