Uno dei problemi delle indagini, e specificamente dei questionari somministrati ai rispondenti, è costituito dal disagio che un determinato quesito può cagionare al rispondente. Un disagio che può causare una distorsione della risposta o una sua omissione, se non addirittura l’interruzione dell’intervista.

Il disagio può riguardare anche argomenti apparentemente innocui ed entro certi limiti sono pochi i quesiti che ne sono totalmente esenti. Ogni volta che chiediamo al rispondente un giudizio sull’operato di qualcuno, per esempio, il disagio si manifesta inevitabilmente in una parte degli intervistati, cosicché essi tendono a rifugiarsi in risposte neutrali. E’ il caso della concentrazione dei giudizi di customer satisfaction su “abbastanza soddisfatto” della quale si è già parlato in qualche post precedente.

Il disagio raggiunge vette elevatissime quando si voglia indagare per mezzo di interviste su comportamenti cosiddetti “devianti” o comunque socialmente riprorevoli, quali il consumo di droghe, comportamenti sessuali contrari all’etica collettiva, atti vandalici, bullismo, ecc. anche quando l’intervistato ne sia stato vittima piuttosto che carnefice (si pensi per esempio alle violenze sessuali subite, ai maltrattamenti e simili).

Le soluzioni suggerite dalla letteratura statistica a questo problema sono state varie, più o meno fantasiose, classificabili per lo più in due classi distinte:

  1. soluzioni atte a diminuire il disagio, mantenendo tuttavia un approccio diretto al problema (ossia facendo, seppure in forma surrogata, quel tipo di domanda)
  2. soluzioni atte a superare il disagio, introducendo meccanismi indiretti di stima.

Questo post non vuole e non può essere una rassegna di questi metodi, per i quali si rimanda alla lettetura specializzata. Bastano alcuni esempi: ricadono ad esempio nel primo gruppo le tecniche proiettive, attraverso le quali si formula la domanda facendo riferimento non direttamente al comportamento del rispondente quanto a quello di altri individui, della sua cerchia o gruppo di appartenenza, della sua estrazione sociale o più in generale alla collettività nel quale egli è inserito. Ricade invece nel secondo gruppo la tecnica della casualizzazione autogestita, per la quale l’intervistato deve scegliere, in base a una procedura casuale che egli stesso mette in atto, a quale quesito rispondere tra il quesito di interesse e uno neutro ad esso associato, cosicché solo il rispondente sa a quale quesito ha risposto e tale consapevolezza gli conferisce la tranquillità necessaria per rispondere in modo sincero.

Ma oggi voglio introdurre, sperando una volta tanto di suscitare una discussione, un metodo descritto da Michael Lieberman* e Jon Montgomery**, definito Item Count Method.

L’Item Count Method (nel seguito indicato con l’acronimo ICM) si basa sulla suddivisione del campione di intervistati in due gruppi (o tre, come vedremo), ai quali verranno sottoposte versioni diverse del questionario.

Il primo gruppo sarà analizzato attraverso un questionario nel quale il quesito di interesse (p.e. “Hai mai fatto uso di marijuana ?”) è inserito in una batteria di item insieme ad altri, non interessanti ai fini della ricerca ma riguardanti altri comportamenti devianti, con la particolarità che al rispondente NON è richiesto di rispondere direttamente a ciascun quesito della batteria di item, bensì solo di indicare QUANTI di quei comportamenti o di quelle azioni ha messo in atto.

Il secondo gruppo conterrà la medesima batteria di item dalla quale sarà stato però eliminato il quesito di interesse. Il resto è ovvio, ovvero supponendo che tra il primo e il secondo gruppo non vi siano significative differenze di comportamento, la differenza delle medie del numero di comportamenti/azioni riferito dai rispondenti dei due gruppi è la base per la stima dell’incidenza del comportamento deviante oggetto dello studio. 

Naturalmente la buona riuscita della metodologia descritta dipende da alcune condizioni al contorno.

Innanzi tutto la numerosità campionaria dei due sub-campioni, che deve essere tale da poter rendere statisticamente significativa la stima.

In secondo luogo gli altri item, di “accompagnamento”, devono essere assimilabili a quello oggetto di studio e né troppo improbabili, né troppo scontati (come scrivono i due autori “The behavior used on the itemcount method list should be such that few respondents have performed all or none of them (…)“).

A mio parere il metodo è interessante e meriterebbe una sperimentazione, p.e. attraverso l’introduzione, nella stessa indagine, di un terzo sub-campione al quale venga somministrata la domanda diretta.  

*: fondatore e presidente di Multivariate Solutions, istituto di ricerche di mercato e di analisi statistiche localizzato in USA, UK e Israele
**: collaboratore dell’istituto di ricerche di marketing Hudson Group, con sede in New York