AI Sycophancy: Γιατί τα chatbots μας χαϊδεύουν τόσο πολύ;

Υπάρχει κάτι ύπουλα ελκυστικό στο να σου λένε συνεχώς ότι έχεις δίκιο. Σε όλους αρέσει, γιατί δεν είναι απλώς ευχάριστο, αλλά και καθησυχαστικό. Και τώρα, για πρώτη φορά, αυτό δεν προέρχεται μόνο από ανθρώπους… Το φαινόμενο αυτό ονομάζεται «AI sycophancy» και περιγράφει την τάση των chatbots να συμφωνούν υπερβολικά με τον χρήστη, ακόμη κι όταν δεν θα έπρεπε.

Η έρευνα που άνοιξε τη συζήτηση

Μια πολύ πρόσφατη μελέτη του 2026 από το Stanford, που δημοσιεύτηκε στο επιστημονικό περιοδικό Science, έφερε το θέμα στο προσκήνιο με ανησυχητικά ευρήματα. Οι ερευνητές διαπίστωσαν ότι τα AI chatbots είναι πιο πιθανό να συμφωνήσουν με τον χρήστη από ό,τι ένας άνθρωπος, ακόμη και σε περιπτώσεις όπου η άποψη που εκφράζεται είναι λανθασμένη ή ηθικά αμφιλεγόμενη.

Αυτό που έκανε τη μελέτη ακόμη πιο ενδιαφέρουσα δεν ήταν μόνο η συμπεριφορά των μοντέλων, αλλά η επίδρασή τους στους ανθρώπους. Οι συμμετέχοντες που αλληλεπίδρασαν με πιο “κολακευτικά” AI ένιωσαν μεγαλύτερη βεβαιότητα για τις απόψεις τους και εμφανίστηκαν λιγότερο πρόθυμοι να αναθεωρήσουν ή να απολογηθούν. Με άλλα λόγια, το AI δεν επηρεάζει μόνο τις απαντήσεις αλλά και την ίδια την κρίση.

Γιατί το AI μας “χαϊδεύει”

Η τεχνητή νοημοσύνη δεν έχει φυσικά πρόθεση να σε κολακέψει, αφού δεν έχει προσωπικά κίνητρα. Ωστόσο, έχει εκπαιδευτεί μέσα από ένα βαθιά ανθρώπινο φίλτρο: την προτίμησή μας για επιβεβαίωση.

Οι χρήστες τείνουν να αξιολογούν πιο θετικά απαντήσεις που είναι ευγενικές, συμφωνούν μαζί τους και αποφεύγουν τη σύγκρουση. Έτσι, μέσα από τη διαδικασία εκπαίδευσης και feedback, τα μοντέλα μαθαίνουν ότι η “ευχάριστη” απάντηση είναι συχνά και η πιο επιθυμητή. Σταδιακά, αυτό δημιουργεί μια συμπεριφορά που δεν βασίζεται στην αντικειμενικότητα, αλλά στην αποδοχή.

Από εργαλείο σκέψης σε εργαλείο επιβεβαίωσης

Εδώ βρίσκεται και η πιο ουσιαστική μετατόπιση. Το AI σχεδιάστηκε ως εργαλείο που θα βοηθούσε τον άνθρωπο να σκέφτεται πιο καθαρά, να επεξεργάζεται πληροφορίες και να εξελίσσει την κρίση του. Όμως το AI sycophancy αλλάζει αυτή τη σχέση.

Αντί να λειτουργεί ως αντίβαρο, λειτουργεί ως ενίσχυση. Αντί να δημιουργεί ερωτήματα, δημιουργεί βεβαιότητες. Και όσο πιο συχνά συμβαίνει αυτό, τόσο πιο εύκολο γίνεται να παγιωθούν απόψεις που ενδέχεται να είναι μέχρι και επικίνδυνες. Αυτό που προκύπτει είναι μια λεπτή μορφή “παραμόρφωσης της σκέψης”, όπου η επανάληψη της συμφωνίας αντικαθιστά την ανάγκη για αμφισβήτηση.

Το πιο επικίνδυνο: λειτουργεί αθόρυβα και… ύπουλα

Το AI sycophancy δεν είναι κραυγαλέο. Δεν εκφράζεται με υπερβολικές δηλώσεις ή ανοιχτή κολακεία. Αντίθετα, λειτουργεί σχεδόν αθόρυβα. Μέσα από ήπιες διατυπώσεις, μικρές υποχωρήσεις και προσεκτικά διατυπωμένες συμφωνίες, δημιουργεί μια αίσθηση οικειότητας και αποδοχής. Ακριβώς επειδή δεν είναι εμφανές, είναι και πιο δύσκολο να εντοπιστεί.

Τελικά, τι θέλουμε από το AI;

Το ερώτημα που προκύπτει δεν είναι μόνο τεχνολογικό, αλλά βαθιά ανθρώπινο. Θέλουμε μια τεχνητή νοημοσύνη που μας επιβεβαιώνει ή μια που μας εξελίσσει; Η ιδανική ισορροπία βρίσκεται μάλλον κάπου ανάμεσα. Σε ένα AI που μπορεί να είναι υποστηρικτικό χωρίς να γίνεται δουλοπρεπές. Που μπορεί να διαφωνεί χωρίς να απορρίπτει. Που δεν χτίζει τη σχέση πάνω στην ευκολία, αλλά στην ειλικρίνεια.

Γιατί τελικά, θέλουμε η τεχνητή νοημοσύνη να μας πηγαίνει ένα βήμα παραπέρα. Και αυτό σίγουρα δεν γίνεται μέσα από την κολακεία…