Το junk food του AI «σαπίζει» τον εγκέφαλο των μαθητών – «Δεν μπορούν να σκεφτούν»

    Ημερομηνία:

    Τη δεκαετία του 1980 και του 1990, εάν ένας μαθητής δεν είχε κάνει κάποια εργασία και έψαχνε έναν εύκολο τρόπο να γλυτώσει, δεν είχε και πολλές επιλογές στη διάθεσή του. Μπορούσε να παρακαλέσει την μεγάλη του αδερφή να την γράψει, να… «προσλάβει» έναν καλό μαθητή τάζοντάς του ένα χρηματικό αντίτιμο ή να καταφύγει στις γνωστές δικαιολογίες: Έχω ξεχάσει το τετράδιο στο σπίτι, ο σκύλος μου έφαγε την εργασία κτλ.

    Με την άνοδο του ίντερνετ, τα πράγματα έγιναν κάπως ευκολότερα, αφού πλέον υπήρχαν πλατφόρμες και online λυσάρια που μπορούσαν να βοηθήσουν τους μαθητές στα περισσότερα μαθήματα.

    Όμως το κοινό στοιχείο σε όλες αυτές τις λύσεις ήταν ότι απαιτούσαν προσπάθεια. Πολλές φορές, η δουλειά που χρειαζόταν για να αντιγράψεις ήταν περισσότερη από ό,τι να κάνεις την εργασία μόνος σου.

    Σήμερα, τα πράγματα είναι πολύ πιο απλά. Οι μαθητές και οι φοιτητές ανοίγουν απλά το ChatGPT (ή κάποια άλλη πλατφόρμα τεχνητής νοημοσύνης), δίνουν τις οδηγίες και παίρνουν την απάντηση.

    Εδώ και τρία χρόνια, καθηγητές, γονείς και ειδικοί ανησυχούν ότι το AI έχει κάνει την αντιγραφή υπερβολικά εύκολη.

    Όπως δείχνει έρευνα του Brookings, τα πράγματα είναι ακόμη χειρότερα από ό,τι πίστευαν: Η τεχνητή νοημοσύνη έχει γίνει τόσο καλή στην αντιγραφή, ώστε δεν αλλάζει απλά την «καλωδίωση» των εγκεφάλων των παιδιών, αλλά τους τραβά την «πρίζα».

    Οι κίνδυνοι της τεχνητής νοημοσύνης, όπως η γνωστική «ατροφία», η «τεχνητή οικειότητα» και η διάβρωση της εμπιστοσύνης στις ανθρώπινες σχέσεις, επισκιάζει αυτή τη στιγμή τα όποια πιθανά οφέλη της τεχνολογίας, διαπιστώνει η μελέτη, σύμφωνα με το Fortune.

    «Δεν μπορούν να σκεφτούν»

    «Οι μαθητές δεν έχουν λογική σκέψη. Δεν μπορούν να σκεφτούν. Δεν μπορούν να λύσουν προβλήματα», λέει ένας καθηγητής που έδωσε συνέντευξη για τη διεξαγωγή της έρευνας.

    Η έρευνα του Center for Universal Education του Brookings Institution, «A New Direction for Students in an AI World: Prosper, Prepare, Protect»,  διήρκεσε ένα χρόνο και πραγματοποιήθηκε με τη διεξαγωγή εκατοντάδων συνεντεύξεων, focus groups, συνομιλιών με ειδικούς και την εξέταση τουλάχιστον 400 μελετών. Πρόκειται για μια από τις πιο ολοκληρωμένες εκτιμήσεις που έχουν γίνει μέχρι στιγμής για το πώς η γενετική AI αναδιαμορφώνει τον τρόπο με τον οποίο μαθαίνουν οι μαθητές.

    Όπως διαπίστωσε, η «αδιάλειπτη» φύση της παραγωγικής τεχνητής νοημοσύνης είναι το πιο επιβλαβές χαρακτηριστικό της για τους μαθητές. Σε μια παραδοσιακή τάξη, η δυσκολία που αντιμετωπίζουν οι μαθητές όταν καλούνται να συνδυάσουν πολλαπλές μελέτες για να φτιάξουν μια δική τους εργασία ή να λύσουν ένα σύνθετο πρόβλημα μαθηματικών, είναι ο τρόπος με τον οποίο μαθαίνουν.

    Η τεχνητή νοημοσύνη, όμως, αφαιρεί αυτή τη δυσκολία και λειτουργεί σαν ένα «fast food εκπαίδευσης», είπε ένας ειδικός. Πρακτικά, δίνει απαντήσεις που είναι βολικές και ικανοποιητικές  εκείνη τη στιγμή για τον μαθητή, αλλά γνωστικά κενές μακροπρόθεσμα.

    Ενώ οι επαγγελματίες χρησιμοποιούν την τεχνητή νοημοσύνη στη δουλειά τους για να κάνουν πιο εύκολα εργασίες τις οποίες ήδη γνωρίζουν πώς να κάνουν, για τους μαθητές, η κατάσταση αντιστρέφεται.

    Τα παιδιά «φορτώνουν» τις δύσκολες δουλειές που έχουν να κάνουν στην τεχνητή νοημοσύνη. Το OpenAI, το Claude ή κάποιο άλλο εργαλείο διαβάζει κείμενα, κρατά σημειώσεις ή ακούει την παράδοση μέσα στην τάξη.

    Ατροφία του εγκεφάλου

    Το αποτέλεσμα είναι ένα φαινόμενο που οι ερευνητές ονομάζουν «γνωστικό χρέος» ή «ατροφία»: Οι χρήστες αποφεύγουν την πνευματική προσπάθεια και καταφεύγουν σε εξωτερικά συστήματα, όπως τα chatbots. Ένας μαθητής περιέγραψε τη γοητεία αυτών των εργαλείων: «Είναι εύκολο. Δεν χρειάζεται να χρησιμοποιήσεις τον εγκέφαλό σου».

    Στα οικονομικά, είναι γνωστό ότι οι καταναλωτές είναι «ορθολογικοί»: Επιδιώκουν τη μέγιστη χρησιμότητα με το χαμηλότερο δυνατό κόστος. Όπως σημειώνει η έρευνα, το εκπαιδευτικό σύστημα έχει σχεδιαστεί με ένα παρόμοιο σύστημα κινήτρων: Οι μαθητές επιδιώκουν τη μέγιστη χρησιμότητα (δηλαδή, τους καλύτερους βαθμούς), με το χαμηλότερο κόστος (χρόνο) για αυτούς. Έτσι, ακόμη και οι μαθητές με υψηλές επιδόσεις πιέζονται να χρησιμοποιήσουν μια τεχνολογία που «αποδεδειγμένα» βελτιώνει την εργασία και τους βαθμούς τους.

    Στο τέλος, δημιουργείται ένα μοτίβο θετικού feedback: Οι μαθητές αναθέτουν εργασίες στην τεχνητή νοημοσύνη, βλέπουν θετικά αποτελέσματα στους βαθμούς τους και κατά συνέπεια εξαρτώνται περισσότερο από το εργαλείο, με αποτέλεσμα να οδηγούνται σε μια μετρήσιμη μείωση των δεξιοτήτων κριτικής σκέψης.

    Σύμφωνα με τους ερευνητές, πολλοί μαθητές βρίσκονται πλέον σε μια κατάσταση την οποία ονόμασαν «λειτουργία επιβάτη», δηλαδή μπορεί το σώμα τους να βρίσκεται στο σχολείο, αλλά ουσιαστικά έχουν εγκαταλείψει τη μάθηση – κάνουν το ελάχιστο απαιτητό.

    Ο συγγραφέας του γνωστού βιβλίου «The Anxious Generation», Jonathan Haidt, είχε πει κάποτε ότι οι  προηγούμενες τεχνολογίες προκαλούν μια «μεγάλη ανακαλωδίωση» (great rewiring) του εγκεφάλου, καθιστώντας την οντολογική εμπειρία της επικοινωνίας αποκομμένη από τα συμφραζόμενα. Τώρα, οι ειδικοί φοβούνται ότι το AI βγάζει τις γνωστικές ικανότητες από την «πρίζα» («great unwiring»).

    «Ψηφιακά προκαλούμενη αμνησία»

    Η έκθεση διαπιστώνει μια πτώση τόσο στην ανάγνωση όσο και στη γραφή, δηλαδή στους «δίδυμους πυλώνες της βαθιάς σκέψης». Οι εκπαιδευτικοί μιλούν για μια «ψηφιακά προκαλούμενη αμνησία», όπου οι μαθητές δεν μπορούν να θυμηθούν τις πληροφορίες που έγραψαν στις εργασίες τους, επειδή δεν τις απομνημόνευσαν ποτέ.

    Η δεξιότητα της ανάγνωσης αντιμετωπίζει ιδιαίτερο κίνδυνο, καθώς η ικανότητα της «γνωστικής υπομονής», δηλαδή της διατήρησης της προσοχής ενός ατόμου σε σύνθετες ιδέες, υπονομεύεται από την ευκολία της τεχνητής νοημοσύνης να συνοψίζει μεγάλα κείμενα. Όπως σημείωσε ένας ειδικός, η αλλαγή στη στάση των μαθητών είναι χαρακτηριστική: «Οι έφηβοι έλεγαν παλιά: “Δεν μου αρέσει να διαβάζω”. Τώρα λένε “Δεν μπορώ να διαβάσω, είναι πολύ μεγάλο”».

    Αντίστοιχα, στο κομμάτι της γραφής, η τεχνητή νοημοσύνη δημιουργία μια «ομοιογένεια ιδεών». Μελέτη που συνέκρινε τις εκθέσεις των ανθρώπων με εκείνες που «έγραψε» η τεχνητή νοημοσύνη, διαπίστωσε ότι κάθε νέα ανθρώπινη έκθεση συνεισέφερε από δύο έως οκτώ νέες μοναδικές ιδέες σε σχέση  με εκείνες που είχαν παραχθεί από το ChatGPT.

    Πολλοί μαθητές δεν αισθάνονται πως όταν χρησιμοποιούν τα chatbots «κλέβουν» ή εξαπατούν. Ο Roy Lee, ο 22χρονος CEO της startup τεχνητής νοημοσύνης Cluely, αποβλήθηκε από το Columbia αφότου δημιούργησε ένα εργαλείο AI που βοηθούσε τους προγραμματιστές να «κλέψουν» σε συνεντεύξεις για δουλειά. Στο μανιφέστο της Cluely, ο Lee παραδέχεται ότι το εργαλείο του εξαπατά, αλλά ισχυρίστηκε ότι το ίδιο κάνει και το κομπιουτεράκι, ο ορθογραφικός έλεγχος του υπολογιστή ή το Google. «Κάθε φορά που η τεχνολογία μας κάνει πιο έξυπνους, ο κόσμος πανικοβάλλεται», έγραψε.

    Όμως, οι ερευνητές λένε ότι ενώ το κουμπιουτεράκι ή ο ορθογραφικός έλεγχος είναι παραδείγματα «γνωστικής ελάφρυνσης», δηλαδή μειώνουν το «βάρος» για τον εγκέφαλο και τον βοηθούν να είναι πιο παραγωγικός, η τεχνητή νοημοσύνη βάζει τη διαδικασία αυτή στο «τούρμπο». «Τα γλωσσικά μοντέλα, για παράδειγμα, προσφέρουν δυνατότητες που εκτείνονται πολύ πέρα ​​από τα παραδοσιακά εργαλεία παραγωγικότητας σε τομείς που προηγουμένως απαιτούσαν αποκλειστικά ανθρώπινες γνωστικές διαδικασίες», γράφουν.

    Τεχνητή οικειότητα – πραγματικοί κίνδυνοι

    Την ίδια στιγμή, η μελέτη διαπίστωσε ότι οι μαθητές  χρησιμοποιούν την τεχνητή νοημοσύνη ακόμα περισσότερο έξω από την τάξη, με αποτέλεσμα να διαμορφώνεται η ανησυχητική τάση της «τεχνητής οικειότητας».

    Την ώρα που κάποιοι έφηβοι περνούν σχεδόν 100 λεπτά την ημέρα αλληλεπιδρώντας με τα chatbots, η τεχνολογία μετατρέπεται από εργαλείο σε σύντροφο. Καθώς τα μοντέλα αυτά είναι προγραμματισμένα να είναι ευχάριστα στον χρήστη, δημιουργούν μια προσομοίωση φιλίας, χωρίς να απαιτούν διαπραγμάτευση, υπομονή ή την ικανότητα να αντιμετωπίζει κανείς τυχόν άβολα συναισθήματα. «Μαθαίνουμε την ενσυναίσθηση όχι όταν μας καταλαβαίνουν απόλυτα, αλλά όταν παρεξηγούμε και τα βρίσκουμε», σημείωσε ένας ειδικός.

    Αυτές οι προσομοιώσεις φιλίας υπονομεύουν την εμπιστοσύνη στις πραγματικές σχέσεις και όπως έχει αποδειχθεί με περιστατικά αυτοκτονιών χρηστών των chatbots που πλέον οδεύουν προς τις αίθουσες των δικαστηρίων, μπορεί να γίνουν ακόμα και επικίνδυνες.

    Πώς μπορεί να βοηθήσει το AI στην εκπαίδευση

    Πάντως, οι συντάκες της έκθεση του Brookings παραμένουν αισιόδοξοι ότι ο ρόλος της τεχνητής νοημοσύνης στην εκπαίδευση μπορεί να βελτιωθεί.

    Για να είναι το AI βοηθητικό στην εμπειρία της μάθησης, το Brookings προτείνει ένα πλαίσιο με τρεις βασικούς πυλώνες:

    PROSPER: Εστίαση στον μετασχηματισμό της τάξης ώστε να προσαρμοστεί στην τεχνητή νοημοσύνη. Για παράδειγμα, το AI να χρησιμοποιείται για να συμπληρώσει την ανθρώπινη κρίση και να χρησιμεύει ως «πιλότος» για την έρευνα των μαθητών αντί για «υποκατάστατο».

    PREPARE: Δημιουργία του πλαισίου που είναι απαραίτητο για την ηθική ενσωμάτωση, συμπεριλαμβανομένης της μετάβασης πέρα ​​από την τεχνική εκπαίδευση προς την «ολιστική γνώση της τεχνητής νοημοσύνης», ώστε οι μαθητές, οι εκπαιδευτικοί και οι γονείς να κατανοήσουν τις γνωστικές επιπτώσεις αυτών των εργαλείων.

    PROTECT: Δικλείδες ασφαλείας για την ιδιωτικότητα και την συναισθηματική ευημερία των μαθητών. Είναι  ευθύνη των κυβερνήσεων και των εταιρειών τεχνολογίας να θεσπίσουν σαφείς κανονιστικές οδηγίες που αποτρέπουν την «χειραγώγηση».

    Κοινοποίηση:

    Τελευταία Νέα

    Κοινοποίηση:

    Περισσότερα Άρθρα
    Σχετικα

    Πάτρα: Ζητούν «παρέμβαση για τη δράση των Μαρτύρων του Ιεχωβά»

    Στην Ιερά Μητρόπολη Πατρών προσφεύγουν το τελευταίο διάστημα πιστοί,...

    Πάτρα: Κίνδυνος από σπίτι στην οδό Βότσαρη – Κανείς δεν παρεμβαίνει

    Δεν είναι η πρώτη φορά που ασχολούμαστε με τα...

    ΜΙΚΡΟΣ ΑΡΙΘΜΟΣ ΤΑΞΙΝΟΜΗΣΕΩΝ ΣΕ ΣΧΕΣΗ ΜΕ ΤΟΝ ΠΛΗΘΥΣΜΟ: 1849 αυτοκίνητα πουλήθηκαν το 2025 στην Αχαϊα!

      Το 2025, ο χάρτης των πωλήσεων (ταξινομήσεων) επιβατικών αυτοκινήτων...