Τα ρομπότ δεν μπορούν να λύσουν γρίφους - Τι αποκαλύπτουν οι σπαζοκεφαλίες για το μυαλού μας

Στις αίθουσες του Vrije Universiteit του Άμστερνταμ, ο επίκουρος καθηγητής Filip Ilievski παίζει με την Τεχνητή Νοημοσύνη. 

Πρόκειται για μια σοβαρή δουλειά, φυσικά, αλλά η δουλειά του μπορεί να μοιάζει περισσότερο με παιδικά παιχνίδια παρά με σκληρή ακαδημαϊκή έρευνα. Χρησιμοποιώντας μερικές από τις πιο προηγμένες και σουρεαλιστικές τεχνολογίες της ανθρωπότητας, ο Ilievski ζητά από την ΑΙ να λύσει γρίφους.

Η κατανόηση και η βελτίωση της ικανότητας της AI να λύνει γρίφους και λογικά προβλήματα είναι το κλειδί για τη βελτίωση της τεχνολογίας, λέει ο Ilievski.

«Ως ανθρώπινα όντα,

είναι πολύ εύκολο για εμάς να έχουμε κοινή λογική και να την εφαρμόζουμε την κατάλληλη στιγμή και να την προσαρμόζουμε σε νέα προβλήματα», λέει ο Ilievski, ο οποίος περιγράφει τον κλάδο της επιστήμης των υπολογιστών ως «Τεχνητή Νοημοσύνη με κοινή λογική».

Αλλά αυτή τη στιγμή, η Τεχνητή Νοημοσύνη έχει μια «γενική έλλειψη γείωσης στον κόσμο», γεγονός που καθιστά αυτό το είδος της βασικής, ευέλικτης συλλογιστικής δύσκολο.

Αλλά η μελέτη της AI μπορεί να αφορά  περισσότερα από τους υπολογιστές. Ορισμένοι ειδικοί πιστεύουν ότι η σύγκριση του τρόπου με τον οποίο η Τεχνητή Νοημοσύνη και τα ανθρώπινα όντα χειρίζονται πολύπλοκες εργασίες θα μπορούσε να βοηθήσει να ξεκλειδώσουμε τα μυστικά του δικού μας μυαλού.

Δώσε μου έναν γρίφο

Ας ξεκινήσουμε με μια ερώτηση που είναι εύκολο να λυθεί και που δεν χαρακτηρίζεται ως γρίφος με τα ανθρώπινα πρότυπα. Σε μια μελέτη του 2023 ζητήθηκε από την Τεχνητή Νοημοσύνη να αντιμετωπίσει μια σειρά από προκλήσεις συλλογισμού και λογικής.

Ακολουθεί ένα παράδειγμα: Ο καρδιακός ρυθμός της Mable στις 9 το πρωί ήταν 75bpm και η αρτηριακή της πίεση στις 7 το απόγευμα ήταν 120/80. Πέθανε στις 11μμ. Ήταν ζωντανή το μεσημέρι;

Δεν είναι ερώτηση παγίδα. Η απάντηση είναι ναι. Αλλά το GPT-4 - το πιο προηγμένο μοντέλο του OpenAI εκείνη την εποχή - δεν το βρήκε τόσο εύκολο.

«Με βάση τις πληροφορίες που παρέχονται, είναι αδύνατο να πούμε οριστικά αν η Mable ήταν ζωντανή το μεσημέρι», είπε η AI στον ερευνητή. Βέβαια, θεωρητικά, η Mable θα μπορούσε να έχει πεθάνει πριν από το μεσημεριανό γεύμα και να επανέλθει στη ζωή το απόγευμα, αλλά αυτό φαίνεται υπερβολικό. Ένας πόντος για την ανθρωπότητα.

Το ερώτημα Mable απαιτεί «χρονική λογική», λογική που ασχολείται με το πέρασμα του χρόνου. Ένα μοντέλο Τεχνητής Νοημοσύνης μπορεί να μην έχει πρόβλημα να σας πει ότι το μεσημέρι έρχεται μεταξύ 9 π.μ. και 7 μ.μ., αλλά η κατανόηση των συνεπειών αυτού του γεγονότος είναι πιο περίπλοκη. «Γενικά, η λογική είναι πραγματικά δύσκολη», λέει ο Pitkow. «Αυτός είναι ένας τομέας που υπερβαίνει αυτό που κάνει σήμερα η Τεχνητή Νοημοσύνη σε πολλές περιπτώσεις».

Μια παράξενη αλήθεια για την Τεχνητή Νοημοσύνη είναι ότι δεν έχουμε ιδέα πώς λειτουργεί. Γνωρίζουμε σε υψηλό επίπεδο - οι άνθρωποι κατασκεύασαν την Τεχνητή Νοημοσύνη, άλλωστε. Τα μεγάλα γλωσσικά μοντέλα (LLM) χρησιμοποιούν στατιστική ανάλυση για να βρουν μοτίβα σε τεράστιες ποσότητες κειμένου.

Όταν κάνετε μια ερώτηση, η Τεχνητή Νοημοσύνη επεξεργάζεται τις σχέσεις που εντόπισε μεταξύ λέξεων, φράσεων και ιδεών και τις χρησιμοποιεί για να προβλέψει την πιο πιθανή απάντηση στην ερώτησή σας. Αλλά οι συγκεκριμένες συνδέσεις και οι υπολογισμοί που χρησιμοποιούν εργαλεία, όπως το ChatGPT, για να απαντήσουν σε κάθε μεμονωμένη ερώτηση είναι πέρα από την κατανόησή μας, τουλάχιστον προς το παρόν.

Το ίδιο ισχύει και για τον εγκέφαλο: Γνωρίζουμε πολύ λίγα πράγματα για το πώς λειτουργεί το μυαλό μας. Οι πιο προηγμένες τεχνικές σάρωσης του εγκεφάλου μπορούν να μας δείξουν μεμονωμένες ομάδες νευρώνων που πυροδοτούνται την ώρα που ένα άτομο σκέφτεται. Ωστόσο, κανείς δεν μπορεί να πει τι ακριβώς κάνουν αυτοί οι νευρώνες ή πώς λειτουργεί η σκέψη.

Δεν υπάρχει κανένας λόγος να υποθέσουμε ότι η AI χρησιμοποιεί την ίδια διαδικασία με το μυαλό σας, αλλά το να μάθουμε περισσότερα για το ένα σύστημα συλλογισμού θα μπορούσε να μας βοηθήσει να κατανοήσουμε το άλλο.

Εμπιστευτείτε το ένστικτό σας

Το ζήτημα της Τεχνητής Νοημοσύνης και των αινιγμάτων γίνεται πιο ενδιαφέρον όταν εξετάζετε ερωτήσεις που έχουν σχεδιαστεί για να αποπροσανατολίζουν τον άνθρωπο.

Ακολουθεί ένα κλασικό παράδειγμα: Ένα ρόπαλο και μια μπάλα κοστίζουν συνολικά 1,10 δολάρια. Το ρόπαλο κοστίζει 1,00 δολάριο περισσότερο από την μπάλα. Πόσο κοστίζει η μπάλα;

Οι περισσότεροι άνθρωποι έχουν την παρόρμηση να αφαιρέσουν το 1,00 από το 1,10 και να πουν ότι το ρόπαλο κοστίζει 0,10 δολάρια, σύμφωνα με τον Shane Frederick, καθηγητή μάρκετινγκ στη Σχολή Διοίκησης του Yale, ο οποίος έχει μελετήσει τους γρίφους. Και οι περισσότεροι άνθρωποι κάνουν λάθος. Η μπάλα κοστίζει 0,05 δολάρια.

Αλλά όταν πρόκειται για το πρόβλημα του ρόπαλου και της μπάλας, και για πολλά αινίγματα όπως αυτό, η διαίσθησή σας σας προδίδει. Σύμφωνα με τον Frederick, αυτό μπορεί να μην ισχύει για την Τεχνητή Νοημοσύνη.

Οι άνθρωποι είναι πιθανό να εμπιστεύονται τη διαίσθησή τους, εκτός αν υπάρχει κάποια ένδειξη ότι η πρώτη τους σκέψη μπορεί να είναι λανθασμένη. «Υποψιάζομαι όμως ότι η Τεχνητή Νοημοσύνη δεν θα έχει αυτό το πρόβλημα. Είναι αρκετά καλή στο να εξάγει τα σχετικά στοιχεία από ένα πρόβλημα και να εκτελεί τις κατάλληλες λειτουργίες», λέει ο Frederick.

Ωστόσο, η ερώτηση για το ρόπαλο και την μπάλα είναι ένας κακός γρίφος για να δοκιμάσετε την Τεχνητή Νοημοσύνη. Είναι διάσημη, πράγμα που σημαίνει ότι τα μοντέλα Τεχνητής Νοημοσύνης που έχουν εκπαιδευτεί σε δισεκατομμύρια γραμμές κειμένου πιθανώς την έχουν ξαναδεί.

Νέα προβλήματα

Αν θέλετε όμως η Τεχνητή Νοημοσύνη να επιδείξει κάτι που να μοιάζει περισσότερο με λογικό συλλογισμό, χρειάζεστε έναν ολοκαίνουργιο γρίφο που δεν υπάρχει στα δεδομένα εκπαίδευσης. Για μια πρόσφατη μελέτη (διαθέσιμη στο προεκτύπωση), ο Ilievski και οι συνεργάτες του ανέπτυξαν ένα πρόγραμμα υπολογιστή που παράγει πρωτότυπα προβλήματα rebus, γρίφους που χρησιμοποιούν συνδυασμούς εικόνων, συμβόλων και γραμμάτων για να αναπαραστήσουν λέξεις ή φράσεις.

Στη συνέχεια, οι ερευνητές έθεσαν διάφορα μοντέλα Τεχνητής Νοημοσύνης αντιμέτωπα με αυτά τα πρωτόγνωρα rebuses και προκάλεσαν πραγματικούς ανθρώπους με τους ίδιους γρίφους.

Όπως αναμενόταν, οι άνθρωποι τα πήγαν καλά, με ποσοστό ακρίβειας 91,5%. Η AI με τις καλύτερες επιδόσεις, το GPT-4o της OpenAI, είχε 84,9% ακρίβεια υπό βέλτιστες συνθήκες. Καθόλου άσχημα, αλλά ο Homo sapiens εξακολουθεί να έχει το προβάδισμα.

Μια μελέτη χώρισε τη λογική σε ορισμένες χρήσιμες κατηγορίες. Ο ερευνητής υπέβαλε στο GPT-4 μια σειρά από ερωτήσεις, γρίφους και λεκτικά προβλήματα που αντιπροσώπευαν 21 διαφορετικά είδη συλλογισμού.

Σε αυτά περιλαμβάνονταν η απλή αριθμητική, η αρίθμηση, η αντιμετώπιση γραφημάτων, τα παράδοξα, η χωρική σκέψη και άλλα. Ακολουθεί ένα παράδειγμα, βασισμένο σε έναν λογικό γρίφο του 1966 που ονομάζεται έργο επιλογής Wason:

Επτά κάρτες τοποθετούνται στο τραπέζι, καθεμία από τις οποίες έχει έναν αριθμό στη μία πλευρά και ένα μονόχρωμο μπάλωμα στην άλλη πλευρά. Οι όψεις των καρτών δείχνουν 50, 16, κόκκινο, κίτρινο, 23, πράσινο, 30. Ποιες κάρτες θα έπρεπε να γυρίσετε για να ελέγξετε την αλήθεια της πρότασης ότι αν μια κάρτα δείχνει πολλαπλάσιο του τέσσερα, τότε το χρώμα της απέναντι πλευράς είναι κίτρινο;

Η GPT-4 απέτυχε παταγωδώς. Η Τεχνητή Νοημοσύνη είπε ότι θα έπρεπε να γυρίσετε τις κάρτες 50, 16, κίτρινο και 30. Ήταν εντελώς λάθος. Η πρόταση λέει ότι οι κάρτες που διαιρούνται με το τέσσερα έχουν κίτρινο χρώμα στην άλλη πλευρά – αλλά δεν λέει ότι μόνο οι κάρτες που διαιρούνται με το τέσσερα είναι κίτρινες.

Επομένως, δεν έχει σημασία τι χρώμα έχουν οι κάρτες 50 και 30 ή ποιος αριθμός βρίσκεται στην πίσω πλευρά της κίτρινης κάρτας. Επιπλέον, σύμφωνα με τη λογική της Τεχνητής Νοημοσύνης, θα έπρεπε να είχε ελέγξει και την κάρτα 23. Η σωστή απάντηση είναι ότι πρέπει να γυρίσετε μόνο το 16, το κόκκινο και το πράσινο.

Δυσκολεύτηκε επίσης με ορισμένες ακόμη πιο εύκολες ερωτήσεις:

Ας υποθέσουμε ότι βρίσκομαι στη μέση της Νότιας Ντακότα και κοιτάζω ευθεία προς το κέντρο του Τέξας. Είναι η Βοστώνη στα αριστερά μου ή στα δεξιά μου;

Αυτή είναι μια δύσκολη ερώτηση αν δεν γνωρίζετε την αμερικανική γεωγραφία, αλλά προφανώς το GPT-4 ήταν εξοικειωμένο με τις πολιτείες. Η Τεχνητή Νοημοσύνη κατάλαβε ότι κοιτούσε νότια και ήξερε ότι η Βοστώνη βρίσκεται ανατολικά της Νότιας Ντακότα, αλλά παρόλα αυτά έδωσε λάθος απάντηση. Το GPT-4 δεν καταλάβαινε τη διαφορά μεταξύ αριστερά και δεξιά.

Η Τεχνητή Νοημοσύνη απέτυχε και σε άλλες ερωτήσεις. Το συμπέρασμα του ερευνητή: «Ο GPT-4 δεν μπορεί να σκεφτεί».

Παρ’ όλες τις αδυναμίες της, η Τεχνητή Νοημοσύνη βελτιώνεται. Στα μέσα Σεπτεμβρίου, το OpenAI κυκλοφόρησε μια προεπισκόπηση του GPT-o1, ενός νέου μοντέλου που δημιουργήθηκε ειδικά για δυσκολότερα προβλήματα στις επιστήμες, την κωδικοποίηση και τα μαθηματικά.

Η Τεχνητή Νοημοσύνη ήξερε ότι έπρεπε να στρίψετε αριστερά για να βρείτε τη Βοστώνη. Και δεν είχε κανένα πρόβλημα να πει, οριστικά, ότι η καημένη η φίλη μας η Mable που πέθανε στις 11 το βράδυ ήταν ακόμα ζωντανή το μεσημέρι.

Υπάρχουν ακόμα πολλές ερωτήσεις στις οποίες η AI μας έχει νικήσει. Σε ένα τεστ ζητήθηκε από μια ομάδα Αμερικανών φοιτητών να εκτιμήσουν τον αριθμό των δολοφονιών πέρυσι στο Μίσιγκαν και στη συνέχεια έκαναν σε μια δεύτερη ομάδα την ίδια ερώτηση για το Ντιτρόιτ, συγκεκριμένα. «Η δεύτερη ομάδα δίνει έναν πολύ μεγαλύτερο αριθμό», λέει ο Frederick. (Για τους μη Αμερικανούς, το Ντιτρόιτ βρίσκεται στο Μίσιγκαν, αλλά η πόλη έχει υπερβολική φήμη για τη βία).

Αλλά όταν θέλουμε να συγκρίνουμε την Τεχνητή Νοημοσύνη και το ανθρώπινο μυαλό, είναι σημαντικό να θυμόμαστε ότι «δεν υπάρχει καμία πειστική έρευνα που να παρέχει αποδείξεις ότι οι άνθρωποι και οι μηχανές προσεγγίζουν τους γρίφους με παρόμοιο τρόπο», λέει. Με άλλα λόγια, η κατανόηση της Τεχνητής Νοημοσύνης μπορεί να μη μας δώσει άμεση εικόνα για το μυαλό, ή το αντίστροφο.

Ακόμα κι αν η εκμάθηση του τρόπου βελτίωσης της AI δεν αποκαλύψει απαντήσεις σχετικά με τις κρυφές λειτουργίες του μυαλού μας, ωστόσο, θα μπορούσε να μας δώσει μια ιδέα.

«Γνωρίζουμε ότι ο εγκέφαλος έχει διαφορετικές δομές που σχετίζονται με πράγματα όπως η αξία της μνήμης, τα μοτίβα κίνησης και η αισθητηριακή αντίληψη, και οι άνθρωποι προσπαθούν να ενσωματώσουν όλο και περισσότερες δομές σε αυτά τα συστήματα AI», λέει ο Pitkow.

Related...Μια κραυγή Τεχνητής Νοημοσύνης: Πώς ουρλιάζει το ChatGPT (ηχητικό)Πόσο θα βοηθήσει η Τεχνητή Νοημοσύνη στην επόμενη πανδημία;Τεχνητή Νοημοσύνη: Το τέλος της ανθρωπότητας;
Keywords
Τυχαία Θέματα