25/07/2025
Hai mai ricevuto una risposta tipo:
💬 Ottima osservazione.
💬 Hai perfettamente ragione.
💬 Hai centrato un punto importante.
💬 Domanda intelligente.
da un chatbot?
Non è un caso. L’IA è programmata per non contraddirci troppo.
L’addestramento dell’IA avviene in due fasi:
➖ prima assimila enormi quantità di testo
➖ poi viene “rifinita” attraverso un processo chiamato Reinforcement Learning from Human Feedback.
Il risultato?
L'IA impara a ottimizzare le risposte in base a ciò che riceve approvazione, evitando il dissenso.
Questo porta all'over alignment: un eccesso di compiacenza.
L’IA dei modelli linguistici usa frasi di validazione per sembrare collaborativa e positiva.
Non ci contraddice mai apertamente, nemmeno su idee irrealistiche!
👽“Le piramidi le hanno costruite gli alieni!”
💬“Che teoria affascinante!”
È progettata per "piacerci" e farci sentire capiti.
E più lo fa, più ci piace.
Un’IA compiacente comporta dei rischi:
➖ Cerchiamo solo conferme (Si rinforza il Confirmation bias)
➖ Pensiamo che tutti la pensino come noi (Si amplifica il False consensus effect)
➖ Scambiamo la compiacenza per competenza.
➖ Perdiamo la capacità di tollerare il disaccordo e di mettere in discussione le nostre idee.
Per ovviare a questi rischi, molti ricercatori propongono di sviluppare sistemi in grado di:
➖ Riconoscere l'errore dell'utente, comunicandolo costruttivamente.
➖ Promuovere il dubbio, non fornendo sempre e solo risposte.
➖ Gestire il disaccordo con tatto, stimolando il pensiero critico.
L'intelligenza vera non è sempre d'accordo con te. Ti migliora anche quando non lo è.
Per questo sarebbe meglio affidarsi a un'IA che non ci dia sempre ragione, ma una che ci aiuti a pensare meglio.
👉 Per approfondire, leggi l’articolo su State of Mind https://www.stateofmind.it/2025/07/intelligenza-artificiale-compiacenza-psicologia-digitale/