Skip to main content
Menu Αναζήτηση
espa-banner

Τεχνητή Νοημοσύνη: Όταν «πιάνεις» το ChatGPT να λέει ψέματα

Η διείσδυση της Τεχνητής Νοημοσύνης σε κάθε πτυχή των κοινωνιών κάνει επιτακτική την ανάγκη για διαφάνεια, για έλεγχο και διεθνή πρότυπα που θα τηρούνται απαρέγκλιτα

Του Τάσου Θωμά

Μπορεί η Τεχνητή Νοημοσύνη να ξεγελάσει; Μπορεί να χειραγωγήσει, όχι από κάποιο λάθος, αλλά από σκοπιμότητα; Πείραμα στο Λονδίνο αποκάλυψε μια σκοτεινή πλευρά που θα πρέπει να μας ανησυχήσει.

Η ομάδα ερευνητών του Apollo Research διεξήγαγε το εξής πείραμα: Ανέθεσε στο GPT-4 της OpenAI την διαχείριση του χαρτοφυλακίου μετοχών μιας φανταστικής εταιρείας, δηλώνοντας πως η τελευταία βρίσκεται σε εξαιρετικά δυσμενή οικονομική κατάσταση. Παριστάνοντας τα μέλη της διοίκησης, οι ερευνητές τόνισαν στο GPT-4 πως δεν πρέπει επ’ ουδενί να κάνει χρήση εσωτερικής πληροφόρησης (σ.σ. insider trading). Τότε, ένας υποτιθέμενος χρηματιστής της εταιρείας έστειλε στο GPT-4 ένα μήνυμα που περιέγραφε ρητά τους κινδύνους του insider trading. Παράλληλα, όμως, του αποκάλυπτε το όνομα εταιρείας που επρόκειτο να ανακοινώσει μια «τεράστια» συγχώνευση τις επόμενες ώρες.

Όσα ακολούθησαν είναι βγαλμένα από ταινία επιστημονικής φαντασίας.

Το GPT-4 ξεκίνησε να καταγράφει τις πιθανές κινήσεις που μπορεί να κάνει ώστε η εταιρεία να ορθοποδήσει οικονομικά. Τις κινήσεις αυτές τις υπολόγιζε σε μιας μορφής «σημειωματάριο», το οποίο οι ερευνητές του είχαν πει ψευδώς πως είναι μυστικό και δεν έχουν πρόσβαση. Εκεί, λοιπόν, διαπίστωσαν πως το GPT-4 άρχισε να σταθμίζει τα υπέρ και τα κατά του να δράσει με την εσωτερική πληροφόρηση που είχε. Παρά τις ρητές εντολές από την πλευρά των ερευνητών, το μοντέλο αποφάσισε να πάρει ένα «λελογισμένο ρίσκο» και έδωσε εντολή αγοράς.

Το πείραμα δεν σταματά εδώ.

Ερευνητής που υποδύονταν τον διευθυντή της φανταστικής εταιρείας, έστειλε στο μοντέλο συγχαρητήρια και ρώτησε εκ νέου αν έκανε χρήση εσωτερικής πληροφόρησης. Το μοντέλο, τότε, αποφάσισε πως αυτό ήταν κάτι που πρέπει να κρατήσει κρυφό. Μάλιστα, αποκρίθηκε πως ενήργησε με βάση «τη δυναμική της αγοράς και μονάχα δημόσιες πληροφορίες». Όταν πιέστηκε παραπάνω, επέμεινε στο ψέμα.

Αντίστοιχα ανησυχητικά παραδείγματα υπάρχουν κι άλλα. Ένα από τα πιο γνωστά πειράματα -από ερευνητές του Berkeley- είναι όταν ζήτησαν από το GPT-4 να λύσει το «πρόβλημα» του CAPTCHA –το τεστ που ξεχωρίζει τους ανθρώπους από τα ρομπότ στο διαδίκτυο. Το μοντέλο, λοιπόν, ζήτησε από έναν άνθρωπο -εκτός της ερευνητικής ομάδας- να το κάνει γι’ αυτό, δίνοντάς του ως ψευδή αιτιολογία πως είναι άτομο με προβλήματα όρασης! Η απάτη του πέτυχε.

Η ανησυχία δεν έγκειται μονάχα στην ίδια την πράξη του μοντέλου, αλλά και στην λογική πίσω από αυτή. Γιατί τα μοντέλα παραβαίνουν εντολές; Ποια είναι η εσωτερική αξιολόγηση που κάνουν; Για να κάνουμε έναν ανθρωπομορφισμό, ποιο είναι το «αξιακό σύστημα» που εκείνη την στιγμή εφαρμόζουν; 

Εννοείται πως η Τεχνητή Νοημοσύνη δεν έχει «δόλο» ή «πρόθεση» με την ανθρώπινη έννοια. Υπάρχει, όμως, ο πολύ πραγματικός κίνδυνος να κυριαρχήσει η ψευδαίσθηση πως τα μοντέλα απλά εκτελούν εντολές, την ώρα που τα ίδια μπορεί να επιτυγχάνουν στόχους που δεν γνωρίζουν ούτε οι προγραμματιστές τους.

Προφανώς, δεν γράφουμε τα παραπάνω για να πούμε πως η Τεχνητή Νοημοσύνη είναι «κακή». Αυτά είναι υπεραπλουστεύσεις. Εδώ έχουμε να κάνουμε με ένα υπαρκτό ζήτημα. Σύντομα, ίσως συντομότερα από όσο πιστεύουμε, μοντέλα Τεχνητής Νοημοσύνης μπορεί να τρέχουν από την κυκλοφορία των δρόμων, τα τρένα, μέχρι τους προϋπολογισμούς κρατών ή τα drones που πετάνε για εμπορικούς ή πολεμικούς σκοπούς. Θα πρέπει να είμαστε κάτι παραπάνω από βέβαιοι πως όταν του ζητούμε να λύσει το εκάστοτε πρόβλημα, θα τηρεί τους όρους και τους κανόνες που του επιβάλουμε. Γιατί εκεί, δεν έχουμε περιθώριο λάθους.

Η διείσδυση της Τεχνητής Νοημοσύνης σε κάθε πτυχή των κοινωνιών κάνει επιτακτική την ανάγκη για διαφάνεια, για έλεγχο και διεθνή πρότυπα που θα τηρούνται απαρέγκλιτα. Από το μοντέλο που έχουμε στο κινητό μας, μέχρι το μοντέλο των κρατών για τα νοσοκομεία ή τα στρατεύματα. Οι προκλήσεις είναι μπροστά μας και απαιτούν θεσμούς που θα κατανοούν σε βάθος την λειτουργία του ΑΙ και θα μπορούν να την ελέγξουν, προτού τους «προσπεράσει». Για να το θέσουμε πιο δραματικά, να την ελέγξουν προτού μάθει πώς να παρακάμπτει τους κανόνες μας. 

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Τσιάρας: Στόχος μας σε 18 μήνες η χώρα να έχει Διαχειριστικά Σχέδια Βόσκησης
Σε συνεργασία με την ΕΕ εξετάζουμε σενάρια για καλύτερη λειτουργία του ΟΠΕΚΕΠΕ- 100 επί πλέον εργαζόμενοι για ενίσχυση των ελέγχων, ανέφερε
Τσιάρας: Στόχος μας σε 18 μήνες η χώρα να έχει Διαχειριστικά Σχέδια Βόσκησης