Πώς πρέπει να μιλάμε σε ένα AI chatbot;

Απειλές, κολακείες, «παρακαλώ» και «ευχαριστώ», ακόμη και η ανάθεση ρόλων όπως καθηγητή ή δικηγόρου: οι χρήστες των μεγάλων γλωσσικών μοντέλων (LLMs) — της τεχνολογίας πίσω από chatbots όπως το ChatGPT και το Gemini — πειραματίζονται με ολοένα και περισσότερες στρατηγικές, προσπαθώντας να εξασφαλίσουν καλύτερες και πιο ακριβείς απαντήσεις.

Η πρακτική αυτή, γνωστή ως «μηχανική προτροπών» (prompt engineering), έχει εξελιχθεί σε μια μικρή βιομηχανία συμβουλών και οδηγιών. Ορισμένοι υποστηρίζουν ότι η ευγένεια βοηθά το σύστημα να αποδίδει καλύτερα· άλλοι πιστεύουν ότι ένας πιο επιθετικός τόνος μπορεί να «ενεργοποιήσει» το μοντέλο. Υπάρχουν επίσης χρήστες που ζητούν από το chatbot να «υποδυθεί» τον ρόλο ενός ειδικού, ελπίζοντας ότι έτσι θα λάβουν πιο αξιόπιστες απαντήσεις.

Ωστόσο, όπως επισημαίνουν ειδικοί μιλώντας στο BBC News, πολλές από αυτές τις προσεγγίσεις δεν στηρίζονται σε ισχυρά επιστημονικά δεδομένα. Σε ορισμένες περιπτώσεις, μάλιστα, μπορεί να οδηγήσουν σε λιγότερο αξιόπιστα αποτελέσματα.

«Πολλοί πιστεύουν ότι υπάρχει μια “μαγική” φράση που θα κάνει ένα LLM να λύσει ένα πρόβλημα», σημειώνει ο Jules White, καθηγητής Πληροφορικής στο Πανεπιστήμιο Vanderbilt. «Στην πραγματικότητα, δεν πρόκειται για συγκεκριμένες λέξεις, αλλά για το πόσο καθαρά και ουσιαστικά εκφράζεις αυτό που προσπαθείς να πετύχεις».

Τα μεγάλα γλωσσικά μοντέλα λειτουργούν αναλύοντας το κείμενο σε μικρότερες μονάδες, γνωστές ως tokens, και υπολογίζοντας στατιστικά ποια λέξη ή φράση είναι πιθανότερο να ακολουθήσει. Αυτό σημαίνει ότι ακόμη και μικρές λεπτομέρειες — από μια λέξη μέχρι ένα κόμμα — μπορούν να επηρεάσουν την τελική απάντηση. Το πρόβλημα είναι ότι η επίδραση αυτών των αλλαγών είναι εξαιρετικά δύσκολο να προβλεφθεί.

Έχει σημασία η ευγένεια;

Οι ερευνητές έχουν επιχειρήσει να εντοπίσουν μοτίβα στη συμπεριφορά των μοντέλων. Μια μελέτη του 2024 έδειξε ότι οι ευγενικές διατυπώσεις ενδέχεται να οδηγούν σε πιο ακριβείς απαντήσεις. Ωστόσο, ένα άλλο πείραμα διαπίστωσε ότι μια παλαιότερη έκδοση του ChatGPT απέδιδε καλύτερα όταν δεχόταν ακόμη και… προσβολές.

Τα διαθέσιμα δεδομένα παραμένουν περιορισμένα, ενώ οι συνεχείς αναβαθμίσεις των μοντέλων σημαίνουν ότι τα συμπεράσματα μπορούν να ξεπεραστούν γρήγορα.

Σε κάθε περίπτωση, οι ειδικοί συμφωνούν ότι τεχνικές όπως η κολακεία ή η επιθετικότητα δύσκολα επηρεάζουν ουσιαστικά την ακρίβεια των απαντήσεων. Τα συστήματα αυτά είναι σχεδιασμένα να μιμούνται τον ανθρώπινο τρόπο επικοινωνίας, κάτι που συχνά δημιουργεί την ψευδαίσθηση ότι διαθέτουν «διάθεση» ή «προσωπικότητα». Στην πραγματικότητα, πρόκειται απλώς για συστήματα προσομοίωσης γλώσσας. Για τον λόγο αυτό, οι ειδικοί προτείνουν να τα αντιμετωπίζουμε περισσότερο ως εργαλεία παρά ως συνομιλητές.

Πώς να μιλάμε τελικά σε ένα chatbot;

Για όσους χρησιμοποιούν συχνά μεγάλα γλωσσικά μοντέλα, οι ειδικοί προτείνουν ορισμένες απλές πρακτικές που μπορούν να βελτιώσουν τα αποτελέσματα.

Ζητήστε περισσότερες από μία απαντήσεις
«Μην περιορίζεστε σε μία λύση — ζητήστε τρεις ή πέντε», προτείνει ο White. Ειδικά σε δημιουργικές εργασίες, οι εναλλακτικές απαντήσεις βοηθούν τους χρήστες να συγκρίνουν ιδέες και να βελτιώσουν το αρχικό τους ερώτημα.

Δώστε παραδείγματα
Αν ζητήσετε από το μοντέλο να γράψει ένα email και το αποτέλεσμα δεν ταιριάζει με το ύφος σας, είναι καλύτερο να του δείξετε παραδείγματα της δικής σας γραφής. Τα μοντέλα τείνουν να μιμούνται τον τόνο και το στυλ πολύ πιο αποτελεσματικά μέσα από παραδείγματα παρά μέσω γενικών οδηγιών.

Αφήστε το να σας κάνει ερωτήσεις
Αντί να ζητήσετε αμέσως μια πλήρη περιγραφή, μπορείτε να ζητήσετε από το AI να σας «πάρει συνέντευξη», θέτοντας ερωτήσεις μία-μία μέχρι να συγκεντρώσει τις απαραίτητες πληροφορίες. Έτσι η διαδικασία γίνεται πιο διαδραστική και προσαρμοσμένη στις ανάγκες σας.

Προσοχή στην ανάθεση ρόλων
Σύμφωνα με τον ερευνητή και επιχειρηματία Sander Schulhoff, για μεγάλο διάστημα επικρατούσε η αντίληψη ότι αν ζητούσε κανείς από το μοντέλο να «υποδυθεί», για παράδειγμα, έναν καθηγητή μαθηματικών, θα έδινε πιο ακριβείς απαντήσεις. Ωστόσο, όταν μια ερώτηση έχει μία μόνο σωστή απάντηση, αυτή η προσέγγιση μπορεί να μειώσει την ακρίβεια. Μπορεί να οδηγήσει το μοντέλο σε υπερβολική αυτοπεποίθηση και στις λεγόμενες «παραισθήσεις» — απαντήσεις που ακούγονται πειστικές αλλά είναι λανθασμένες.

Για brainstorming, παροχή συμβουλών ή δημιουργική διερεύνηση ιδεών, πάντως, η ανάθεση ρόλων μπορεί να αποδειχθεί χρήσιμη.

Διατηρήστε ουδέτερη στάση
Αν ζητάτε βοήθεια για να πάρετε μια απόφαση, καλό είναι να μην επηρεάζετε το σύστημα με τις προσωπικές σας προτιμήσεις. Για παράδειγμα, αν πείτε ότι κλίνετε προς μια συγκεκριμένη μάρκα αυτοκινήτου, το chatbot ενδέχεται να ενισχύσει ακριβώς αυτή την επιλογή.

Και τελικά… να λέμε «παρακαλώ»;

Μια έρευνα του 2025 έδειξε ότι περίπου το 70% των χρηστών μιλά ευγενικά στα chatbots. Οι περισσότεροι το κάνουν απλώς επειδή θεωρούν ότι είναι το σωστό, ενώ ένα μικρό ποσοστό — περίπου 12% — παραδέχεται ότι το κάνει «για καλό και για κακό», σε περίπτωση που τα ρομπότ… επαναστατήσουν.

Η ευγένεια πιθανότατα δεν επηρεάζει σημαντικά την απόδοση των μοντέλων. Ωστόσο, μπορεί να έχει ένα διαφορετικό όφελος.

«Το σημαντικότερο είναι ότι βοηθά τους ανθρώπους να αισθάνονται πιο άνετα όταν αλληλεπιδρούν με την τεχνητή νοημοσύνη», λέει ο Schulhoff. «Δεν βελτιώνει την απόδοση του μοντέλου, αλλά αν σας βοηθά να χρησιμοποιείτε το εργαλείο πιο εύκολα και πιο συχνά, τότε η ευγένεια εξακολουθεί να έχει αξία».