SlideShare ist ein Scribd-Unternehmen logo
1 von 37
La medicina riconosce l’importanza della misura. Ad es. la fisiologia usa le leggi e i metodi di indagine
della fisica.
Già alla fine dell’800 Kraepelin cercava di mettere in luce deviazioni del comportamento attraverso
test psicologici.
La esistenza di parametri quantitativi avrebbe permesso secondo Kraepelin di stabilire con
precisione e affidabilità il CONFINE tra malattia e normalità.
In questa direzione andavano i tentativi del 1° Novecento di definire in modo scientifico i criminali
attraverso misure delle loro caratteristiche fisiche
La rilevazione di informazioni può avvenire sia sottoforma verbale(colloquio, esplorazione, intervista
e raccolta anamnestica ) che sottoforma scritta (test o questionari).
Il colloquio presenta naturalmente dei vantaggi: Flessibilità
Possibilità di ottenere molte informazioni
I quali però sono controbilanciati dai seguenti svantaggi
Minor possibilità di confronto
Artefatti soggettivi
Fattori di disturbo
I test psicometrici si usano se vogliamo OBIETTIVARE differenze tra pazienti diversi
(INTERINDIVIDUALI) o differenze nell’evoluzione delle condizioni dello stesso paziente
(INTRAINDIVIDUALI).
IL PROCEDIMENTO prevede quindi che si rilevino le caratteristiche peculiari e si confrontano con
le medie di 1 GRUPPO DI CONFRONTO (da cui il termine di TEST NORMOORIENTATI).
Si tratta della storica controversa tra IDIOGRAFIA e NOMOTETICA.
Per la idiografia l’obiettivo è la ricerca dell’unico e inequivocabile e comprende necessariamente
concretezza e accuratezza nella descrizione di oggetti complessi.
La nomoetica si pone come obiettivo la ricerca di regole e leggi generali , tendendo verso le
generalizzazioni per poter elaborare delle affermazioni centrali , favorisce una struttura analitica del
pensiero e lo sviluppo di esperimenti.
Così il giudizio clinico viene detto anche giudizio causistico . all’opposto il giudizio statistico si
caratterizza per una elaborazione meccanica di dati.
Noi ci occupiamo in questo corso della ricerca di leggi e regole. Necessitiamo quindi di dati numerici.
I dati numerici che noi trattiamo dovranno inoltre essere analizzasi statisticamente.
Cio che caratterizza la statistica è che essa si occupa di proprietà collettive: l’individuo ha importanza
solo in quanto elemento di un aggregato.
LA CARATTERISTICA DELLA STATISTICA E’ CHE ESSA SI OCCUPA DI PROPRIETA’
COLLETTIVE. Cosa fa la statistica?
ESTRAENDO A CASO DA UNA POPOLAZIONE ALCUNI CAMPIONI –
CHE PURTROPPO POSSONO ESSERE TRA LORO DISOMOGENEI
-SI CERCA (con la statistica) DI DETERMINARE LE PROPRIETA’ DEL GRUPPO, OVVERO
UNA LEGGE GENERALE CHE DESCRIVE IN MEDIA UN COMPORTAMENTO DELLA
POPOLAZIONE ALLO STUDIO
I dati psicometrici sono particolari classificazioni del comportamento, attraverso cui un fenomeno
complesso viene trasformato in una misura (per es. il punteggio d un test), che esprime la quantità in
cui è presente una certa abilità o caratteristica del soggetto.
1
Secondo la fondamentale teoria della misurazione, proposta da S. Stevens nel 1946 e nel 1950, la
misurazione è un’associazione tra una categoria (o simbolo formale) e un evento, o un oggetto o un
individuo, in base a regole.
Da un lato, la “realtà”:
• Eventi che accadono nel tempo
• Oggetti presenti nel mondo reale
• Individui che attuano dei comportamenti
Dall’altro, le categorie:
Sistemi di categorie con i quali etichettiamo, codifichiamo, organizziamo gli eventi, gli oggetti o gli
individui che fanno parte del mondo e della nostra esperienza sensibile.
In mezzo, le regole
Esistono delle regole di corrispondenza da rispettare per misurare in maniera corretta e accurata.
In modo più formale si dice che deve esistere
• Un sistema empirico che ha determinate caratteristiche (la “realtà”)
• Un sistema “numerico” (leggi: formale) che deve riflettere le caratteristiche del sistema empirico
(le categorie)
• Una funzione di omomorfismo che lega il sistema empirico con quello numerico (regole)
La misurazione di un sistema empirico deve perciò costruire un sistema numerico in modo tale che sia
in una relazione di omomorfismo con il sistema empirico.
Il caso o soggetto è ciò a cui si attua la misurazione.
La variabile è l’insieme di categorie che utilizziamo per eseguire la misurazione del caso o soggetto.
Perciò, una variabile è una proprietà del soggetto (qualità, caratteristica), che varia da soggetto a
soggetto.
Esempi di variabili:
• Colore occhi (neri, verdi, marroni, azzurri)
• Altezza (0 cm, 1 cm, …, 1,60 m, 1,61 m, …)
• Altri
La variabile è formata, quindi, da una serie di categorie che variano tra loro (da cui variabile).
Ciascuna categoria viene detta livello, o modalità, della variabile. Per esempio, la variabile colore degli
occhi è formata da almeno 4 livelli (azzurro, verde, marrone, nero) che a seconda del soggetto a cui
vengono applicate cambiano.
ES. Misurazione di due soggetti in base alla variabile Altezza
Si noti che, per rilevare e registrare le misurazioni eseguite, dobbiamo utilizzare uno strumento di
misura- per es:
• un metro e una matrice dove scrivere le altezze
• un sistema di categorie e una griglia dove scrivere i colori
Se lo strumento di misura è in qualche modo problematico la nostra misurazione non può essere
corretta. E’ quindi necessario utilizzare strumenti di misura buoni e utilizzarli bene.
Quindi:
Evitare di utilizzare un metro elastico!
Fissare bene il punto 0 del metro col punto di inizio della nostra misurazione!
2
Evitare un sistema di categorie per i colori degli occhi sbagliato (giallo, bianco, nero, rosso)!
Far eseguire all’osservatore un esame della vista!
Ecc
Ci possono essere 4 tipi di variabili a seconda del rapporto che intercorre tra le categorie (o livelli)
che compongono le variabili stesse. Per identificare in quale delle quattro categorie ricade la nostra
variabile è, perciò, necessario capire che rapporto c’è tra i livelli della variabile (cioè capirne la
natura).
COS’È UNA VARIABILE CATEGORIALE: Se le categorie della variabile sono delle pure e
semplici categorie discrete, qualitativamente diverse l’una dall’altra, e non possono essere ordinate in
nessun modo, allora la variabile è detta categoriale o nominale o mutabile.
Esempi: •Genere (maschi, femmine)
• Religione (cattolica, ebrea, musulmana, protestante).
Ai livelli della variabile possono essere assegnati dei nomi, come maschi e femmine, o dei codici astratti (es., a, b, c, d), ma
mai dei valori numerici (es., 1, 2, 3, e 4) o ordinali (I, II, II, IV).
COS’È UNA VARIABILE ORDINALE: Se i livelli possono essere ordinati in modo tale che uno
viene prima di un altro, e così via, allora la variabile viene detta ordinale.
Esempi:
• Classe sociale (alta, media, bassa)
• Domande (da quelle più aperte a quelle più chiuse)
Ad ogni livello può essere quindi assegnato un valore ordinale (I, II, II, IV) ma mai un valore numerico
che indichi che l’intervallo tra i livelli è costante o che il rapporto tra i livelli è costante (es., 1, 2, 3, e
4). È possibile immaginare che le diverse categorie di una variabile ordinale giacciano su di un
continuum che va da un polo col massimo della proprietà della variabile ad un polo col minimo della
proprietà. Per esempio, le domande in un questionario giacciono su un continuum che va da massima a
minima apertura della domanda.
COS’È UNA VARIABILE A INTERVALLI: Se i livelli della variabile possono essere, oltre che
ordinati, anche numerati, cosicché ciascun livello corrisponde ad un numero, e se l’intervallo tra un
livello e quello adiacente è costante (unità), allora la variabile viene detta a intervalli (o a intervalli
equivalenti).L’aspetto fondamentale è che l’intervallo, cioè la differenza tra i livelli, sia costante.
Perciò, è assolutamente equivalente se i valori attribuiti ai livelli sono 0, 1, 2, 3 e 4, oppure –2, –1, 0,
+1, +2.
Per esempio,
• Temperatura in Fahrenheit o in centigradi
• QI,
• Test .di atteggiamento e personalità.
Poiché la scala viene attribuita arbitrariamente ai livelli, anche il valore zero è un valore arbitrario assegnato ad un livello, e
non uno zero assoluto o naturale. Perciò, l’assegnazione del valore zero ad una caratteristica psicologica non indica
un’assenza reale di tale caratteristica ma un punto arbitrario del continuum nell’intensità con cui tale caratteristica si può
manifestare. Conseguenze: se lo zero è arbitrario, non si può dire che una temperatura di 20° è doppia rispetto a una di 10°
(sebbene lo si faccia nel linguaggio quotidiano), ma solo che la differenza che esiste tra 20° e 10° è la stessa che esiste, per
esempio, tra 30° e 20°.
COS’È UNA VARIABILE A RAPPORTI: Quando lo zero indica la vera assenza di quantità
misurata, la variabile in questione è detta a rapporti (o a rapporti equivalenti).Se il punteggio della
variabile è doppio dell’altra, anche la stessa quantità misurata è il doppio dell’altra.
Esempi,
• Il n° di errori in un testo scritto
• Il numero dei figli
• Età
• Peso
• Temperatura misurata sulla scala Kelvin. (lo zero implica la mancanza di movimento delle molecole!).
3
CLASSIFICAZIONE DIFFERENTE
Da alcuni autori la distinzione qualitative/quantitative raggruppa categorie diverse:
1. Categoriali o nominali o mutabili=Qualitative
2. Ordinali Quantitative
3. A intervalli equivalenti*
4. A rapporti equivalenti*
*Quantitative misurabili
SEMPLICE METODO PER L’INDIVIDUAZIONE DELLE VARIABILI
1] I livelli della variabile sono ordinabili in un qualche modo naturale?
No, allora la variabile è nominale.
Sì, allora:
2] Gli intervalli tra i livelli della variabile sono equivalenti?
No, allora la variabile è ordinale.
Sì, allora:
3] Lo zero indica veramente l’assenza della quantità misurata?
No, allora la variabile è a intervalli.
Sì, allora la variabile è a rapporti.
VARIABILI in base alla MISURABILITÀ
DISCRETE
Si dice discreta quella variabile che può assumere un numero finito di valori, solitamente non
frazionari, all’interno del suo ambito di variazione o tra due suoi punti qualunque (es., numero di figli).
Anche se viene usata a volte come sinonimo di variabile qualitativa, cosa di per sé scorretta, in realtà può assumere i valori
della categorie delle variabili nominali, i ranghi delle variabili ordinali e anche i numeri interi delle variabili quantitative
(per esempio, 3, 4, 5, e 6). Assume sempre un numero finito di valori all’interno del suo ambito di variazione.
CONTINUE
Si dice continua quella variabile che può assumere i valori di tutti i numeri reali, cioè di quei numeri
che contengono gli interi e tutti i punti frazionari presenti tra di loro. Cioè, anche se il suo ambito di
variazione è limitato, può assumere un numero infinito di valori. Es., altezza.
LE VARIABILI in base al RUOLO NELLA RICERCA
INDIPENDENTE
La variabile indipendente è la variabile che il ricercatore suppone sia la causa di un determinato effetto.
DIPENDENTE
La variabile dipendente è la variabile che il ricercatore suppone dipenda dalla variabile indipendente.
Le variabili indipendenti possono essere manipolate o non manipolate a seconda che il ricercatore
possa controllarle o manipolarle attivamente e a piacere (dose di un farmaco, intensità della luce).
VARIABILI in relazione all’OGGETTO:
COMPORTAMENTALI
Variabili osservabili, costituite cioè da una risposta palese.
PERSONALI o SOGGETTIVE
Variabili che riguardano il soggetto, alcune delle quali sono osservabili (colore degli occhi, sesso), altre
non osservabili (intelligenza, nevroticismo, atteggiamento) che vengono inferite dal comportamento del
soggetto e sono dette costrutti.
VARIABILI in relazione all’ERRORE CHE PROVOCANO NELLA RICERCA
VARIABILI DI CONFUSIONE O DISTURBO
Variabili non controllate, o controllate male, che confondono l’effettiva relazione tra la VI e le VD nella
ricerca (dovute alla situazione e alla condizioni in cui si fa la ricerca, ai soggetti, agli sperimentatori,
ecc.). Esse in genere inducono i cosiddetti errori casuali.
Gli errori casuali sono errori la cui sommatoria, se facessimo infinite misurazioni, tenderebbe a zero.
4
Es.: rispondere ad un questionario quando si è affaticati, euforici, felici, stanchi, ecc.
VARIABILI CHE PRODUCONO ERRORI SISTEMATICI
Sono variabili che inducono errori relativamente regolari (detti errori sistematici), a volte dovuti a
errori del ricercatore nel pianificare la ricerca (scelta sbagliata dei soggetti, l’uso di una scala di misura
sbagliata, ecc.)
La sommatoria degli errori sistematici, date infinite misurazioni, non tende a zero.
Es.: una bilancia tarata male.
COSA SONO I DATI
In genere, i prodotti dell’attività di misurazione sono detti dati e, in particolare (anche se con qualche
eccezione):
• il prodotto dell’attività di misurazione di variabili quantitative è un punteggio;
• il prodotto dell’attività di misurazione di variabili qualitative è una frequenza.
I dati vengono organizzati in matrici di dati o matrici Casi X Variabili, in cui i casi sono rappresentati
in riga e le variabili in colonna in modo tale che in ogni cella c’è un’informazione sul caso.
Es.,
Variabile Colore degli occhi
Soggetto 1 VERDI
Soggetto 2 BLU
MATRICE DI DATI con diversi modi di codificare i livelli delle variabili
La variabile psicometrica che cos’è?
Abbiamo detto che si tratta di qualsiasi tratto della realtà psicosociale. Variabili sono : lo stato emotivo,
l’abilità cognitiva, il tratto caratteriale, il tratto affettivo, ecc…
Il concetto di misura implica una rappresentazione numerica delle variabili. Le proprietà fisiche
( dimensioni, intensità, velocità, gravità) hanno una misura diretta. Gli attributi psicologici come le
abilità cognitive , i tratti di personalità, lo stato emotivo ecc. non possono essere misurati direttamente.
Per valutare quesiti specifici psicologici ci serve un campione o prototipo comportamentale
quantificabile e rappresentabile dal punto di vista numerico.
Il test è finalizzato a identificare il comportamento che rappresenta il patrimonio psicologico
sottostante.
I valori che derivano dalla performance individuale al test sono identificabili come punteggi numerici
e possono rappresentare una o più delle seguenti variabili.
• Numero delle risposte corrette
• Tempo per completare un test
• Numero di errori
• Valutazione qualitativa ( per es. di un disegno).
I punteggi sono quindi relazioni di riepilogo sul comportamento osservato. Chi computa il punteggio
di solito lo posiziona su una scala numerica.
La scala in generale ha almeno due gradi: 1-bene o superato, 2-male o non superato , se non tre: 1-.., 2-
… e 3-abbastanza bene o appena superato. Raramente i livelli sono 6 o 7 perché diventa privo di
significato interpretativo.
I punteggi ottenuti con più di un item (=ogni domanda che costituisce la scala) producono un
punteggio di riepilogo che in genere è la somma semplice dei punteggi relativi a tutti i punteggi
5
individuali. In genere vengono poi inserite delle correzioni cosicché il punteggio finale non è solo una
sommatoria. Si costituisce in questo modo un database psicologico che soddisfa l’esigenza di dati
oggettivi, facilmente replicabili, ordinati in modo che l’interpretazione è attendibile e i confronti
significativi.
I punteggi ottenuti ai test possono essere espressi in vari modi. Non si utilizza mai un punteggio grezzo
(cioè la semplice somma di risposte corrette o le risposte corrette meno le sbagliate ) perché il
punteggio grezzo in sé non comunica nulla del suo valore relativo. Di solito i punteggi vengono
espressi come valori di una scala basata sui punteggi grezzi realizzati attraverso una popolazione di
standardizzazione ( gruppo di individui testati allo scopo di ottenere dati normativi sui test). Ogni
punteggio diviene quindi una formulazione del suo valore relativo a tutti gli altri punteggi su quella
scala.
Nella maggior parte degli ambienti neuropsicologici la maggior parte della valutazione testistica è
eseguita con batterie testistiche che al loro interno prevedono punteggi dei singoli test posti sulla
stessa scala e standardizzati sulla medesima popolazione in modo che si possa comparare direttamente
il punteggio del test. Quindi per eseguire i confronti necessari per la valutazione di una alterazione i più
diversi punteggi testali devono essere convertibili in una scala con unità identiche. Una specie di
‘lingua franca’ che consente il confronto diretto tra numerosi tipi diversi di misurazione.
I dati psicometrici ricavati da un test possono avere diversi tipi di relazione con la realtà psicologica
sottostante. Possiamo concepire questa relazione come deterministica, in analogia col concetto
matematico di funzione. La grandezza psicologica sottostante è un OGGETTO che ‘ determina’ il
valore ‘vero’ e sistematico della misura. A questo si aggiunge un errore variabile (il cui valore atteso è
0) responsabile della incongruenza delle misure ripetute, cioè della imperfetta attendibilità della misura.
In alternativa possiamo concepire la realtà psicologica sottostante come un processo governato da leggi
probabilistiche. In questo caso la variabilità tra le diverse prove dello stesso soggetto può dipendere
dalla natura probabilistica del fenomeno (a d esempio reperimento di un nome dal lessico fonologico
dopo un procedimento di ricerca).
La misura deve essere sufficientemente costante e non dipendere troppo da fattori diversi dalla quantità
della grandezza da valutare.
È comunque inevitabile che la misura sia approssimata nel senso che se fosse possibile misurare
infinite volte per la prima volta una determinata caratteristica individuale ci aspetteremmo comunque
una certa variabilità tra una misurazione e l’altra. Questa variazione deve essere comunque di entità
modesta se vogliamo che la misura costituisca una stima attendibile della grandezza a cui siamo
interessati.
Gli errori di misurazione possono essere di tipo personale: il loro valore atteso (cioè la loro media
ideale) è diverso da zero per lo stesso operatore, mentre tende a zero per operatori diversi; un test è
obiettivo nella misura in cui non risente di questo tipo di errori.
Gli errori variabili hanno valore atteso che tende a zero per qualsiasi osservatore e per qualsiasi
soggetto. Gli errori variabili sono quindi il risultato di molti eventi casuali imprevedibili e che agiscono
in diverse direzioni.
La neuropsicologia classica ha elaborato a proposito degli errori variabili una teoria sul rapporto tra
attendibilità del test, variabilità dei punteggi tra diversi soggetti e limiti di confidenza del punteggio
vero del test per il singolo soggetto.
6
Per costruire un test ci si può fondare su due alternative. Fino agli anni cinquanta/sessanta ci si basava
su una sola ipotesi, chiamata teoria classica. Essa si fonda su assiomi, formule e prescrizioni che
permettono una interpretazione sufficientemente forte e completa dei dati rilevati. Questa teoria si
fonda su tre assiomi (Heller 1974).
1-Assioma dell’esistenza: a ogni valore osservato corrisponde un valore effettivo, cioè una
caratteristica individuale ben precisa che si reputa essere costante. Il valore misurato X è però la
somma del vero valore T e dell’errore E. Il valore osservato infatti è sempre il risultato di un riscontro
legato al caso: quanto più attenti sono i procedimenti di misurazione tanto più determinato dal caso sarà
l’errore. Un errore determinato dal caso può in misurazioni successive rivelare valori talvolta appena al
di sopra , talora appena al di sotto del valore vero. Nella media i valori si annullano e pertanto si
esplicita la necessità del secondo assioma ovvero:
2- assioma degli errori: l’errore durante una misurazione è una variabile casuale per la quale vale:
‘ la sommatoria ovvero la media aritmetica dei valori degli errori dà il valore zero’.Quindi l’errore di
misurazione non è correlato al test vero e anche gli errori di misurazione di test diversi non sono
correlati.
3-Con l’assioma della correlazione si intende che il valore osservato è composto dall’addizione di
valore vero ed errore. Questo presuppone che il vero valore , l’errore e il valore osservato siano
misurabili dalla stessa unità di misura.
Da questi assiomi sono state dedotte formule, regole e prescrizioni per i criteri di validazione
dell’obiettività, dell’affidabilità e della validità.
Il punto debole della teoria classica è però la quantificazione degli errori eseguiti durante la rilevazione
e di conseguenza è stata definita la teoria degli errori di misurazione.
Sebbene la maggior parte dei test di utilità pratica sono stati costruiti sugli assiomi del modello classico e i risultati relativi
sono considerati attendibili, recentemente sono state evidenziate una serie di contraddizioni tali da costituire motivi validi
alla costruzione di modelli alternativi.
TEORIE PROBABILISTICHE
Queste vanno sotto la dicitura di ‘teorie per test nuovi’ o ‘probabilistici’ (Kubinger 1992). Queste teorie
nuove sono state appunto messe in cantiere per sopperire ai ‘vizi di forma’ di cui soffre la teoria
classica: la teoria classica presuppone una dipendenza dalla popolazione e l’invarianza. Tutte le
stime degli errori devono essere basate secondo la teoria classica sulla valutazione della popolazione e
ne sono quindi dipendenti.
La teoria classica, come abbiamo detto riduce i valori latenti a valori valutabili (la variabile osservata X
è uguale al vero valore T al quale si somma la componente di errore).
I modelli probabilistici invece deducono con una certa probabilità,
- dal comportamento osservato le caratteristriche che non sono osservabili (latent try theory).
- la risoluzione o la risposta ad un item (funzione logistica)
- test orientati a criterio ( modello binomiale)
- risposta indipendente dalla campionatura ( modello logistico-lineare)
Tutti i modelli probabilistici hanno comunque contraddizioni e imprecisioni e godono ad oggi di scarsa
applicazione clinica.
IL CAMPIONAMENTO
Il problema del campionamento è fondamentale. E’ necessario infatti stabilire il numero di soggetti
necessari per condurre un esperimento e le modalità di reclutamento dei soggetti perché essi siano
realmente rappresentativi della popolazione a cui si vogliono estendere inferenzialmente le misure
effettuate su un campione.La rappresentatività quantitativa èn l’esigenza che – tra i valori estremi
osservati nel campione sia compreso con un rischio misurato alfa – almeno una percentuale p della
popolazione.
Selezione dei soggetti
7
Distinzioni: a) Popolazioni (finite e infinite) e campione b) Popolazione bersaglio ( target) e
popolazione accessibile
c) Campione casuale e campione tramite stratificazione e campione ad hoc
Si basano sul concetto di campione rappresentativo.
RAPPRESENTATIVITA’: Per generalizzare i risultati da un campione ad una popolazione, il
campione deve essere rappresentativo della popolazione. Cosa significa “ rappresentativo” ? Significa
che il campione deve riflettere adeguatamente le caratteristiche della popolazione. In altri termini:le
caratteristiche della popolazione ( sesso, età, intelligenza, classi sociali, atteggiamenti, affiliazioni
politiche, religione, etc. ) devono essere presenti nel campione nelle stesse proporzioni presenti nella
popolazione. Ci sono vari modi di campionamento:
1.Campionamento casuale: Un campione si dice casuale quando ogni soggetto della popolazione ha
la stessa probabilità di essere scelto per far parte del campione.a) con ripetizione o reinserimento
b) senza ripetizione
2. Campionamento casuale stratificato:Un campione è stratificato quando la popolazione viene
suddivisa in tante parti, dette strati, sulla base delle variabili considerate critiche per i soggetti, e da
ognuna di queste parti viene compiuta un’estrazione casuale. Le variabili critiche per i soggetti sono,
ovviamente, le variabili che si suppone influenzino la VD(variabile dipendente) .Possono essere prese
in considerazione più variabili critiche contemporaneamente.
3. Campionamento ad hoc:Si dice campione ad hoc quel campione formato da soggetti facilmente
accessibili e disponibili a partecipare alla ricerca e, quindi, non estratti casualmente da alcuna
popolazione. Si può generalizzare solo (1) con cautela e con riserva e (2) a persone che hanno le stesse
caratteristiche del campione.
Altra caratteristica è l’esigenza di avere un’adeguata protezione ed una sufficiente potenza nell’analisi
statistica. Si tratta di valutare e controllare la potenza dell’esperimento, cioè della misura in cui si è
protetti dagli errori di mancata individuazione nel campione di differenze presenti nella
popolazione. Questa operazione si farà utilizzando calcoli a priori con modalità differenti che si tratti
di gruppi con la stessa varianza o con varianza differente. Gli studi poi che prevedono diversi gruppi
sperimentali necessitano di confrontare variabili per cui essi sono diversi. Questo obbliga all’uso di
campioni molto consistenti e di tecniche statistiche particolari. Negli studi di popolazioni di cerebrolesi
bisogna anche scegliere quali soggetti includere, sia mediante raccolta di una serie continua di soggetti
che mediante una omogeneità della fonte di provenienza. Altro problema del campionamento riguarda
gli studi evolutivi ( miglioramento e peggioramento da un dato baseline) . Questo problema non trova
unica soluzione. Di sicuro costringe a selezioni della popolazione e alla manipolazione dei dati tale che
essi perdono la caratteristica di generalità. Altro problema ancora che si pone al ricercatore clinico è il
confronto tra popolazioni diverse per gravità (dx e sx). In tutti i casi in genere poi, si affianca un
gruppo di controllo . Tali gruppi possono essere costituiti sia da soggetti normali che da pazienti di
altro tipo.
LE SCALE
Il modo più serio di affrontare il problema delle scale è ritenerle quantificazioni il più precise possibili
di parametri clinici. La elaborazione e la quantificazione di dati biologici si completa su quattro piani
differenti:
-sul piano della attività biologica (dati di laboratorio ..)
-Sul piano delle manifestazioni cliniche (severità di paresi…)
8
-Sul piano delle possibilità funzionali
-Sul piano dell’influenza sulla qualità della vita.
-
Questo modello è stato proposto dalla Organizzazione Mondiale della Sanità può essere preso come
punto di riferimento. Esso prevede quattro livelli
1- pathology: si riferisce alla lesione ovvero al cattivo funzionamento di un organo o di un sistema di
organi e rappresenta il punto di maggior interesse per l’assistenza.
2-impairment: sono le conseguenze neurofisiologiche del cattivo funzionamento di un organo,
rappresenta quindi i sintomi visibili. Non sempre però il danno si presenta con sintomi visibili ( un
infarto cerebrale non si manifesta sempre con un ictus).
3- disability: intende la conseguenza di un impairment cioè di una compromissione cioè la limitazione
o l’incapacità da parte del soggetto di svolgere determinati compiti. Il comportamento del paziente è
quindi alterato, influenzato anche dall’ambiente e da fattori psicologici.
4- Handicap identifica le conseguenze sociali della malattia. Descrive la perdita di libertà subita dal
paziente dopo una malattia.
Nelle prime fasi di una malattia finchè si presume reversibile l’attenzione si concentra sul pz e sulla
patologia. Successivamente prendono il sopravvento la disabilità e l’handicap . Se prima al centro era
la persona successivamente sarà l’ambiente e il rapporto con l’ambiente a prevalere.
Le scale possono essere semplici o complesse, monodimensionali o pluridimensionali. Alcuni punteggi
considerano più la patologia d’organo che piuttosto che la disabilità o l’handicap del paziente. Altri
sistemi cercano di unire più piani di valutazione in un unico punteggio ma ciò in genere è più dannoso
che altro.
Alcune scale descrivo un unico sintomo o deficit ( ad esempio la scala di spasticità, del tremore ecc.),
Le scale cognitive esprimono sempre un quadro sintomatologico.
Ci sono le scale poi che sommano più incapacità a costituire le ‘daily living’ (attività quotidiane) o
ancora insufficienze globali (esaminare più funzioni), oppure valutare l’handicap di un singolo
paziente o la qualità della vita. Ci sono poi le scale di autovalutazione ( in genere di disturbi
psichiatrici, ansia ecc..). Infine le scale che misura lo capacità di interazione con la società
( integrazione).
La maggior parte dei sistemi complessi si basano su principi additivi: si compongono di subscore
attraverso i quali si descrive un singolo sintomo utilizzando una categoria. Ad ogni categoria
corrisponde un punteggio le cui somme danno il valore globale. L’elaborazione del punteggio globale
ha però senso nella valutazione globale della severità di una patologia ma non esprime il grado di
limitazione del soggetto. ( ad es. nelle scale per Sclerosi Multipla non si possono considerare alla stessa
stregua i punteggi che si riferiscono a sintomi sensitivi piuttosto che motori o atassici).
Durante la categorizzazione i pazienti vengono suddivisi in due o più gruppi. Se ci si immagina la
caratteristica da rilevare su una linea continua l’impiego di una caratterizzazione significa una
maggiore evidenza delle differenze a i poli e una minore diversità al centro. La categorizzazione è una
costrizione della realtà, la distorce.
La valutazione e le elaborazioni sono necessarie da un punto di vista scientifico oltre che diagnostico,
terapeutico o prognostico , richiedono elevata obiettività e confrontabilità ma al singolo interessano
quasi solo le proprie impressioni ed emozioni riguardo la severità della propria malattia. Per es.
l’impedimento funzionale alla mano dominante è un danno maggiore per chi svolge come attività per
es. il pittore. La sofferenza e il dolore non possono essere rilevati da nessun sistema.
9
TIPI DI SCALE
scala nominale:
Rappresenta caratteristiche qualitative
Considera la distribuzione nelle categorie rappresentate dalla scala
Le categorie devono essere definite con esattezza
Ogni esaminato deve poter essere ascritto ad una sola categoria
Le categorie devono potersi escludere a vicenda
Devono essere esaustive
L’unica operazione matematica permessa è la comparazione uguale a
disuguale a
Essa prevede unicamente etichette e nomi come categorie. Un esempio di scala nominale sono i
numeri sulle maglie dei giocatori. Uno psichiatra può suddividere pazienti schizofrenici nelle categorie:
1=ebefrenici; 2=simplex; 3=catatonici; 4=paranoidei, sta usando quindi una scala N. ma se lo psichiatra
vuole utilizzare una scala che separi malati da non-malati non potrà avvalersi di questo tipo di scala.
Nella scala ordinale
•Ad ogni espressione vengono assegnate cifre che le mettono in rapporto grande-piccolo
•Le espressioni sono correlate tra loro in rapporto monotono
Sono ammesse operazioni come: uguale/disuguale
piccolo/grande
il criterio è quantitativo, crescente-> decrescente, in queste scale non abbiamo la sicurezza che a
misurazioni determinate corrispondano grandezze determinate. Se due gruppi misurati con una scala
ordinale hanno la stessa media aritmetica in una misura –essendo la scala dotata di proprietà ordinali-
è possibile che non siano uguali le medie della grandezza sorgente, ne deriva che tutte le operazioni che
si basano sulla media aritmetica non saranno lecite.
Sono scale utilizzate nell’ambito delle scienze sociali a misurare: aggressività, intelligenza, condizione
sociale
Es: VARIABILE ANALIZZATA: capacità uditiva di una popolazione di bambini;
SCALA USATA: divisa nelle seguenti classi: -molto buona;
- buona;
- media;
- non buona
- pessima
Possiamo trasformare qs classificazione numeri 1---5 o 10----10.000, cioè possiamo solo stabilire
rapporti di tipo monotono, cioè espresse sempre da una funzione crescente-<->decrescente.
Se le proprietà delle misure sono solo ordinali non si possono applicare tutte le analisi statistiche ma
solo le analisi non parametriche o le analisi di tabelle di frequenza.
Si possono calcolare grandezze come : mediana, moda, rango.
Sono consentite operazioni come = /= e piccolo->grande
nella scala intervallare:
•L’intervallo tra due valori in sequenza è ben definito e sempre uguale
•
Sono ammesse operazioni come:
Confronto uguale/disuguale
Confronto piccolo/grande
10
Confronto uguaglianza/disuguaglianza di differenze (addizioni-sottrazioni)
Tutte le trasformazioni del tipo y=a+bx
Tutte le trasformazioni del tipo f’(a)=uf(a) + v
Ad uguali intervalli tra le misure corrispondono uguali intervalli nelle grandezze. Per queste quantità
sono autorizzate tutte le analisi statistiche che si basano sulle medie aritmetiche e che comprendono
l’analisi della varianza. Si possono calcolare media e deviazione standard o il suo quadrato, cioè la
varianza(sommatoria di tutte le deviaz. dalla media aritmetica al quadrato diviso il n° di osservazioni)
che ha il significato di misurare la dispersione intorno alla media.
Il limite di queste scale è che manca la corrispondenza tra l’origine della scala di misurazione (0) e la
vera e propria assenza della grandezza. Questo limite ci impedisce di dire che se una misura è doppia di
un’altra anche le grandezze corrispondenti sono l’una doppia dell’altra. In queste scale sono accettabili
tutti i tipi di trasformazione lineare esprimibili come y= a+bx , ma non quelle logaritmiche o
esponenziali.
scala a rapporto
•Il punto 0 della scala è predefinito
Consente l’esecuzione delle seguenti operazioni matematiche:
Confronto uguale/disuguale
Confronto piccolo/grande
Confronto uguaglianza/disuguaglianza di differenze (addizioni-sottrazioni)
Confronto uguaglianza/disuguaglianza di quozienti
-Nelle scienze sociali può risultare difficile scegliere il livello della scala da utilizzare.
Si presume che agli estremi di una scala a intervalli le distanze tra le classi non presentino più
l’equidistanza richiesta , ovvero che valga solo il livello della scala ordinale. Si potrebbe quindi
ridurre il livello delle scale a scale ordinali , correndo il rischio di sottovalutare i risultati, in quanto la
parte centrale delle scale mantengono una sequenza ad intervalli. (QI)
I test psicometrici sono considerati convenzionalmente appartenere alle scale ordinali ? Alle scale
intervallari?
-Secondo la teoria rappresentativa della misurazione individuare le caratteristiche di scala è
fondamentale per individuare operazioni lecite. Questa impostazione è stata criticata ampiamente e
molti autori hanno concluso che in realtà i risultati delle misurazioni verrebbero a formare delle entità
autonome dalla grandezza sorgente e quindi la qualità del rapporto tra grandezza e misura non vincola
il tipo dell’elaborazione statistica.
Del resto in tema di test psicologici è difficile dire se la scala abbia in effetti proprietà intervallari.
Un giudizio orientativo può basarsi su diversi fattori, tra cui va esaminato come è costruito un test. Se il
test consiste nella ripetizione di quesiti diversi, ciascuno dei quali ha la stessa difficoltà , è intuitivo
concludere che debba godere della proprietà intervallare.
Nella maggior parte dei casi tuttavia il test è costituito da quesiti di difficoltà crescente, o da blocchi di
difficoltà crescente, ciascuno dei quali contiene un certo numero di quesiti aventi un livello di difficoltà
simile. Per questi test non solo non è garantita la proprietà intervallare ma- dal punto di vista formale-
neppure quella ordinale. Questi problemi sono solo in parte risolvibili utilizzando dei parametri di
stima di intervallarità.
In conclusione le analisi statistiche parametriche possono essere usate con cognizione di causa anche
per i test psicometrici.
Un altro problema importante che si pone nella pratica neuropsicologica è che esiste un limite insito
nelle prove dato dal fatto che un soggetto non può andare al di là di un certo punteggio massimo e
minimo , cioè siamo in presenza di scale chiuse. La conseguenza delle scale chiuse è che parte del
campione viene appiattito ai due estremi della scala.
11
Un altro limite importante è la necessità del confronto tra punteggi di prove diverse per cui occorre
standardizzare le misure.
LE DISTRIBUZIONI
Prendiamo un campione di 100 soggetti, considerati per la variabile: ALTEZZA
Misuriamo tutte le altezze e poi ne calcoliamo il valore medio X1 e la distribuzione dei valori intorno
alla x, prendiamo poi un campione C2 e anche di esso ricaviamo il valore medio e la distribuzione dei
valori intorno a X2. STATISTICAMENTE X1 e X2 sono 2 diverse realizzazioni di una variabile
casuale X. Essendo la variabile altezza una misura costante non ci interesserà sapere quale è la
probabilità di registrare una precisa realizzazione, ma piuttosto ci interesserà sapere il valore da noi
riscontrato in quale intervallo cade, cioè a che punto è di una distribuzione gaussiana.
Si parla cioè di funzione di densità.
Quando vengono considerate variabili casuali discrete, come il QI, si parla di funzione di probabilità.
Se i campioni sono sufficientemente grandi la frequenza relativa di una classe converge con la
probabilità con la quale una determinata realizzazione della variabile casuale compare.
La distribuzione normale è un concetto teorico che ci serve per le elaborazioni statistiche. Se abbiamo a
che fare con un campione sufficientemente grande ci si avvicinerà a una distribuzione normale e quindi
possiamo usare –per misurare- della analisi statistica parametrica.
Così alla domanda quale significato ha il valore medio di un test d’intelligenza la risposta è:
La distribuzione di una variabile casuale X i si avvicina con l’aumento delle osservazioni n alla
distribuzione normale, indipendentemente dalla distribuzione della variabile originale xi
Così le caratteristiche della distribuzione normale sono:
Forma a campana
Simmetria rispetto al valore medio
Moda, mediana e media aritmetica coincidono
Essendo le misure infinite il valore medio non si può calcolare, ma si calcola il valore medio atteso mu
La distribuzione si avvicina asintoticamente all’asse x
Tra i valori X punto di flesso giacciono i 2/3 dei valori corrispondenti a ±1σ
Ne consegue che I parametri utili sono mu e sigma .
Molte distribuzioni normali non hanno forma a campana ma sono curve spostate a sinistra, si tratta
di quelli che hanno dei valori minimi , come i punteggi grezzi dei test psicologici.
In questi casi si procede rappresentando graficamente la curva non distribuita normalmente e
calcolandone alcuni parametri, come angolatura della distribuzione, apice troppo ampio (che significa
eccesso di distribuzione) e l’irregolarità della distribuzione. A queste si applicano poi delle
trasformazioni in modo da portarle a ‘normali secondarie’.
Le distribuzioni limitate a sx dallo 0 vengono –attraverso logaritmi- n ormalizzate. La curva di
distribuzione normale viene poi trasformata in ‘normale standard’ , attraverso la trasformazione in
punti zeta.
-Un’altra distribuzione molto usata , anche se non presente in natura, è la chi quadro, per la verifica di
tabelle a 4 o più entrate. La sua forma di distribuzione dipende dai gradi di libertà che si calcolano sul
numero di variabili meno uno. Più gradi di libertà ci sono più la curva tende ad essere simmetrica.
Esempi di variabili così definite sono sesso, stato civile, livello di istruzione.
L’applicazione pratica riguarda il saggiare se due criteri di classificazione applicati allo stesso insieme
di dati siano indipendenti
Un altro utile parametro è l’analisi di correlazione tra caratteristiche differenti.
12
Un esempio di correlazione precisa è quella tra lato e superficie del quadrato. Per le scienze sociali non
si ha mai questa correlazione . Infatti il risultato di due test eseguiti in due giorni successivi può essere
diverso. Questo può dipendere da molti fattori, non tanto dal livello di intelligenza.
Il coefficiente di correlazione r darà l’estensione della polverizzazione dei valori intorno ad una retta di
regressione. Il coefficiente r varia da –1 ( cioè al crescere di x decresce y) a +1( al crescere di x cresce
anche y).
La necessità più recente in neuropsicologia è stabilire la effettiva necessità ed utilità degli studi di
gruppo se la ricerca mira ad identificare e definire le fasi dell’elaborazione cognitiva necessarie per
l’esecuzione di un compito, quali siano compromesse e che relazioni esistano tra di esse. Si è così
introdotto lo studio dei casi singoli. Anche questi studi tuttavia devono ricorrere ad una valutazione
quantitativa rigorosa dei dati. Le tecniche più interessanti riguardano i seguenti campi di ricerca:…… i
metodi statistici (stocastici) utilizzati sono in questo caso estremamente raffinati e particolari.
Una volta raccolti i dati sperimentali o clinici, si pone il problema della loro elaborazione.
L’introduzione del metodo di statistica inferenziale ha costituito un passo decisivo in ambito
neuropsicologico perché ha permesso di fondare su basi solide e controllate le conclusioni tratte dal
lavoro sperimentale. Il lavoro diagnostico –pure- è aiutato dalla statistica perché ha permesso di
costruire delle soglie o dei criteri quantitativi per la valutazione dei soggetti nei vari gruppi.
La esecuzione dei calcoli , la comprensione e traduzione in pratica delle formule matematiche
costituisce il primo step del processo elaborativo ed è supportato dalla numerosa quantità di programmi
anche sofisticati di analisi statistica peraltro ormai tutta computerizzata.(………..).
La difficoltà prevalente oggi è la necessità di comprendere il significato delle metodiche disponibili e
della scelta della metodica più appropriata. Esistono librerie di programmi statisctici, come la
Biomedical Programs(BMDP) o la Statistical Package for the Social Sciences(SPSS) o ancora la
Statistical analysis System (SAS). Anche la statistica è una scienza in evoluzione e perciò è sempre in
corso una revisione critica dei metodi di analisi statistica , grazie anche all’apporto delle nuove tecniche
di simulazione. Inoltre sta crescendo la possibilità di valutare la potenza dell’analisi statistica onde
evitare di commettere errori di secondo tipo ( considerare 2 medie uguali mentre sono diverse).
A cosa servono
•Classificazioni?
•Stadiazioni?
•Criteri diagnostici?
•Scale?
•Punteggi?
Alcuni vantaggi sono di immediato ritorno: standardizzare le definizioni, standardizzare la lingua e
l’utilizzo della parola come base di comunicazione, confrontabilità dei risultati.
Dal punto di vista pratico senza chiare stadiazioni non si possono neanche dare terapie o per valutare
fasi riabilitatorie non si può prescindere dalla scala di giudizio. I criteri diagnostici e la stadiazione
sono indispensabili per definire la caratterizzazione di una situazione patologica e la sua dimensione
temporale. Entrambi questi elementi sono vincolati al concetto di scala e punteggio in quanto attraverso
scale e sistemi di punteggio si cerca di evidenziare la severità dei deficit clinici . Quale vantaggio
comportano scale e punteggi correlate agli eventi clinici?. Questi sistemi permettono di trasformare in
numero le caratteristiche cliniche e il numero è un ordine ben preciso che esprime delle categorie che
devono essere analizzate mediante rigorose analisi statistiche a tal punto che è stato coniato il termine
di BIOMETRIA per questo ordine di problemi , o CLINIMETRIA.
13
Le scale servono quindi a quantificare e a classificare.
La elaborazione e la quantificazione dei dati biologici si completa su quattro piani differenti:
1- sul piano dell’attività biologica ( dati di laboratorio , riscontri strumentali)
2- sul piano delle manifestazioni cliniche ( severità di paresi , atassia ecc.)
3- sul piano delle possibilità funzionali del paziente
4- sul piano dell’influenza della qualità di vita.
Scopo della psicometria:
Compito del lavoro clinico è misurare l’abilità cognitiva e le caratteristiche cognitive. Questa misura
facilita la capacità decisionale correlando le performance di un individuo ad un appropriato gruppo di
riferimento o scoprendo una modificazione del comportamento individuale nel tempo. La natura del
processo decisionale è specifica in determinate situazioni e include una vasta gamma di decisioni:
Identificare le difficoltà cognitive
Scegliere una appropriata terapia riabilitativa
Valutare l’autonomia
Valutare l’abilità professionale
Differenziare le patologie che colpiscono le funzioni cognitive
Determinare la rapidità di miglioramento o di peggioramento
Stabilire una prognosi
Scopo Prognostico/predittivo
L’utente chiede al suo strumento di valutare qual è il livello dell’abilità che il test misura, e il livello in
questo caso è interessante per sé in quanto l’esame viene fatto per prevedere quale sarà la capacità di un
individuo di svolgere una data mansione.In questo caso non ha quindi interesse quali siano i fattori che
hanno determinato il valore osservato, poiché quest’ultimo serve per prevedere altre variabili.
Scopo diagnostico:
A livello diagnostico e di ricerca ciò che interessa è invece la costruzione di un modello dei fattori che
possono influenzare il risultato.
Scopo di ricerca:
In ambito di ricerca lo sperimentatore vorrà controllare se i fattori che secondo un modello “a priori”
si suppongono importanti siano effettivamente rilevanti dopo il vaglio dell’esperimento che viene
condotto su molte osservazioni.
Ciò sarà ottenuto stimando con metodi statistici qual è la grandezza di alcuni parametri che
costituiscono i termini del modello e nel decidere quali di essi siano sufficientemente rilevanti perché il
loro ruolo venga effettivamente confermato. Si tratta quindi di ricercare quali sono i fattori che stanno
alla base di un comportamento e verificare se includere tra questi la malattia (atteggiamento
diagnostico). Altra applicazione in ricerca sarà valutare l’efficacia di un trattamento sia esso
psicologico o farmacologico.
Se si parte da presupposti sbagliati l’affermazione non ha più valore.
Uno studio può fallire per colpa di una classificazione malconcepita, per l’utilizzo di criteri diagnostici
non sufficienti o sistemi di scale e punteggi scelti male.
Il sistema di punteggio per esempio potrebbe essere specifico e anche sufficientemente sensibile ma per
esempio assolutamente irrilevante per il quesito da indagare.
CRITERI DI VALIDAZIONE
14
Per minimizzare gli errori o almeno cercare di valutare le condizioni in modo più adeguato, le
metodiche diagnostiche devono sottostare a una serie di principi che possono essere compresi nel
termine di criteri di validazione (Lienert 1969) .
Obiettività: o indipendenza dal clinico- i dati raccolti secondo una metodica psicometrica obiettiva
devono essere applicati, valutati ed interpretati indipendentemente dall’esperienza dell’esaminatore.
Ovvero- chiunque utilizza la tecnica deve raggiungere il medesimo risultato al termine della
valutazione della stessa persona.
Affidabilità: - o reliability- identifica la correttezza della misurazione di una caratteristica da valutare. Se si ripete
l’applicazione di un particolare test allo stesso paziente a distanza di qualche tempo (retest) ci si deve attendere
un risultato uguale, mantenute inalterate tutte le altre condizioni.
Validità:una metodica è valida quando in effetti misura la caratteristica in osservazione.
Reliability (Attendibilità/affidabilità o Riproducibilità) - Misura l'accordo tra più osservatori nel
rilevare lo stesso fenomeno. La riproducibilità entro osservatori si riferisce all'accordo tra misure dello
stesso fenomeno effettuato dallo stesso osservatore in tempi diversi (QA).
Se un individuo riceve ad un test una volta alti punteggi e una volta bassi punteggi non si può fare
nessuna inferenza sulla capacità che il test esamina.. Fatto acquisito che il punteggio del test riflette
(X=T+E) la formula già enunciata possiamo dire che la elevata reliability ha il significato di permettici
di concludere che la variabilità del punteggio ottenuto in successive prove per lo stesso soggetto è da
attribuirsi maggiormente al punteggio ‘vero’. Allora il coefficiente di reliability può essere espresso
come il rapporto tra la varianza dei punteggi veri e la varianza del punteggio totale.
Rxx= σ 2
T
σ2
Τ + σ 2
Ε
La reliability è stata determinata attraverso varie modalità:
1.Il metodo test-retes= correlazione tra il punteggio al primo test e ai successivi
2.Applicazione di test alternativi
3.La separazione ( split-half) in due tronconi del test
4.Correlazione interna tra i subitem
Da una di queste modalità con cui si stima la affidabilità si ricava l’errore standard di misurazione.
Validity (Validità) - Fedeltà con cui uno strumento misura ciò che si propone di misurare.Viene messa
in relazione un'entità di natura empirica (lo strumento) con un'entità di natura teorica (il costrutto
teorico, un concetto). Essendo una relazione tra entità di natura differente, è difficile una sua stima.
Ecco perchè la validità è stata spesso scomposta:
validità di contenuto, di criterio, ecc.
Secondo alcuni autori la validità può essere stimata a patto che il costrutto teorico - del quale lo
strumento dovrebbe essere un indicatore valido - si tratti come una variabile latente (una variabile
sottostante che influisce su un numero limitato di variabili osservate). La validità concorrente
comporta il confronto fra i risultati del test in costruzione con i dati di un criterio esterno (esempio:
giudizi intuitivi, risultati di altri test, dati bibliografici acquisiti). La validità predittiva comporta un
intervallo di attesa per confermare con i fatti le implicazioni prognostiche di una data diagnosi ricavata
dal test di prova. In base ai risultati ottenuti singole parti del questionario possono venir modificate.
15
La validità non è misurata statisticamente, riflette un dato clinico, un giudizio formulato in accordo tra
vari specialisti della materia, in relazione alla descrizione dettagliata delle caratteristiche del test.. La
validità stabilisce le relazioni con gli aspetti teoretici sottostanti ad un test.questo si stabilisce in base
alla alta correlazione tra il test in esame e altri test. Così la validità è sia di contenuto ( caratteristiche
degli item) che di costruzione. Terzo elemento che contribuisce alla validità di un test è la sua utilità.
Ai criteri maggiori si aggiungono i seguenti criteri secondari:
Standardizzazione: sono utili quei sistemi in grado di fornire un valido punto di riferimento per la
classificazione dei dati raccolti. I dati grezzi devono essere riconducibili a precisi valori standard. La
standardizzazione può riguardare:
-la popolazione generale
-particolari gruppi sociali
-campioni identificabili a seconda del motivo e dell’estensione dell’applicazione.
-Confrontabilità: la disponibilità di uno o più test paralleli o di test simili permette un controllo della validità e
dell’affidabilità.
-Economia: metodiche economiche richiedono un breve tempo di esecuzione , necessitano di poco
materiale di consumo , devono essere di facile esecuzione e valutazione.
-Utilità: l’evidente esigenza che una metodica diagnostica debba essere utile per fini pratici implica che nessun
altro strumento a disposizione sia applicabile in quelle condizioni.
-Inoltre sono importanti, soprattutto per le indagini epidemiologiche, altri criteri come: semplicità di esecuzione,-
accettabilità ,ovvero nessuna obiezione di tipo etico, - ripetitibilità e correttezza, ovvero l’utilizzo di parametri
effettivamente indicatori della condizione da valutare.
SENSIBILITA’ E SPECIFICITA’
Sensitivity (Sensibilità) - Nella costruzione di una scala per misurare fenomeni clinici questa quantità
riguarda come sembra essere appropriata o "sensibile" la scala proposta. I giudizi qualitativi impiegati
nella valutazione della sensibilità di una scala comprendono:
*Quanto uno strumento "reagisce" a variazioni anche piccole del costrutto latente che deve rilevare?
*La scala è comprensibile, semplice, vi sono comprese tutte le variabili più importanti?
*Quanto è buona la qualità dei dati dai quali sono derivati i punteggi?
La maggior parte dei test in medicina sono imperfetti nel senso che occasionalmente gli individui sani
sono classificabili erroneamente come malati , mentre altri individui realmente malati non sono
riconosciuti come tali. Ecco allora che si può calcolare la probabilità che un test dia una risposta
positiva o negativa.
test
+ 1-β β
realtà
- α 1−α
16
Gli individui nell’angolo superiore destro di questa tabella 2x2 è detto falso negativo; β è la probabilità
di un falso negativo e 1- β è detta sensibilità del test. Gli individui che rientrano nell’angolo inferiore
sinistro sono detti falsi positivi; α
è la probabilità di un falso positivo e 1- α
è la specificità del test.
Prendiamo quindi un campione della nostra popolazione indagata tramite un test e poniamo che
riscontriamo le seguenti frequenze:
Test
positivo al test negativo al test
+ -
malato + a c
Realtà
non malato - b d
a= pazienti malati e riconosciuti dal test (veri positivi)
b= pazienti non malati ma riconosciuti malati dal test (falsi positivi)
c= pazienti malati ma non riconosciuti dal test (falsi negativi)
d= pazienti non malati e come tali riconosciuti dal test (veri negativi)
sensibilità= a/(a+c) x 100
specificità= b/(b+d) x 100
La probabilità di un falso negativo potrebbe essere stimata da β=b/(a+b) e la probabilità di un falso
positivo da α=c/(c+d). Test validi sono caratterizzati da specificità e sensibilità =1. Praticamente
nessun test raggiunge questi valori.
La maggior parte dei test richiede un bilancio tra sensibilità e specificità. Quanto maggiore è la
sensibilità del test tanto minori saranno i falsi negativi ma solitamente minore è anche la specificità. Si
assume implicitamente (indice di Youden) che i falsi negativi e i falsi positivi abbiano la stessa
importanza. Esistono buone ragioni contro questo punto di vista. Infatti i due tipi di errore hanno
conseguenze molto differenti. Ed è spesso più ragionevole attribuire un peso maggiore al falso negativo
che al falso positivo.
In sintesi un test per essere buono
dovrebbe possedere almeno tre caratteristiche fondamentali (secondo gli psicometricisti):
Validità (del contenuto, predittiva, concorrente, dei tratti),
Attendibilità o costanza,
Sensibilità di discriminazione.
I clinici sostengono in generale che non è possibile dare valutazioni psicometriche della personalità ma
solo un diagnosta intervistatore, interreagendo col soggetto, può giungere ad operare la sintesi
necessaria a sviluppare il mondo soggettivo dell'intervistato (diagnosi).
La corrente antropologica tende ad integrare le due prospettive, quella degli psicometristi e quella dei
clinici. In conclusione si tende a considerare due forme di validità, di attendibilità, di sensibilità
nettamente differenziate tra loro: quella metrica e quella clinica.
TEST SPERIMENTALI E TEST STANDARD
I test sperimentali si classificano in 4 livelli:
17
LIVELLO I: il test non è mai stato rivisto o pubblicato . È utilizzato solo da chi lo ha prodotto. I dati
normativi sono vaghi o non esistenti.
LIVELLO II: Il test non è mai stato pubblicato ma è stato rivisto e utilizzato da gruppi di lavoro con
ricerche multicentriche. Esistono dati normativi sparsi.
LIVELLO III: Il test è stato ampiamente distribuito a soggetti interessati per uso sperimentale. Non
esistono studi pubblicati con questo test. Sono distonibili dati normativi preliminari, la ‘reliability’ e la
validità.
LIVELLO IV: Il test è stato descritto su riviste e incluso in studi che comprendono altri test
standardizzato. Sono disponibili i dati normativi preliminari e sono contemplate la reliability e la
validità. In genere in questa fase il test non è formalmente pubblicato ma è disponibile ad essere
distribuito dall’autore.
Un test si definisce standard :
LIVELLO I: il test è facilmente disponiobile alla comunità scientifca ed adeguatamente normalizzato.
LIVELLO II: il materiale testistico è standardizzato ed è dotato di un manuale di punteggio . Sono
disponibili la reliability e la validità.
LIVELLO III: le ricerche che usano test vengono riviste e pubblicate in ambiente specializzato.
LIVELLO IV: il test è stato replicato da autori doversi da quelli che l’hanno sperimentato.
Condotta una misurazione si necessita successivamente di valutare la distribuzione dei valori ottenuti.
Le distribuzioni sono essenzialmente classificabili come ; normale
normale standard
Chi quadrato
Una volta raccolti i dati sperimentali o clinici si pone il problema della loro elaborazione. Gli approcci
statistici più usati sono:
• Confronto tra medie: gli strumento più usati in questo quesito sono – t di Student (per confronto
tra 2 medie) , l’analisi della varianza ( per più di 2 medie);: il test di Student non è soddisfacente
soprattutto perché in genere i gruppi al confronto hanno numerosità diverse e varianza diversa.
Anche per l’analisi della varianza è fondamentale che le varianze siano uguali. . Esiste una certa
diffidenza verso questo sistema:
Esse sono: 1) i dubbi circa il fatto che tutte le scale utilizzate abbiano la stessa proprietà; 2) la necessità
di verificare le condizioni proprie della procedura statistica ( numerosità, uguaglianza di varianza ecc.).
• modelli lineari: sono equazioni che descrivono la struttura del modello con cui s’intende
interpretare le osservazioni: se la distribuzione è di tipo normale si parla di analisi della
regressione multipla; se le caratteristiche sono discrete si applica l’analisi della varianza; se
alcune caratteristiche sono continue e altre discrete si parla di analisi della covarianza. Il
modello lineare è la base spesso per aggiustare i punteggi dei test tenendo conto delle
caratteristiche per esempio di età e scolarità.
• L’analisi delle frequenze necessita di trasformazioni a seconda della distribuzione delle
osservazioni.
• Molto spesso i problemi da affrontare richiedono di lavorare con più variabili dipendenti alla
volta, pertanto si utilizzano l’analisi della varianza per misure ripetute, o per l’utilizzo di più
test contemporaneamente l’analisi multivariata della varianza e della covarianza. Altri elementi
necessitano di altre tecniche come l’analisi fattoriale, discriminante ecc.
Correlazione e regressione:
18
L’analisi delle correlazioni tra caratteristiche differenti è possibile quando si riconosce che
effettivamente due o più caratteristiche sono tra loro in relazione e quali sono le modalità di rapporto.
Quanto più forti sono le correlazioni tanto meno il risultato è dipeso da fattori di disturbo.
L’equazione che è necessaria alla formulazione delle previsioni sulla scorta di correlazioni stocastiche
viene chiamata equazione di regressione.
A secondo del livello di scala prescelto varieranno anche i coefficienti di correlazione: per scale
intervallari si useranno il coeff. Di correlaz. Di Bravais-Pearson, la correlazione dei ranghi di Spearman
e il coefficiente biseriale, per le scale ordinali si useranno la Spearman o la Kendall, per le scale
nominali si useranno la biseriale o il coeff di contingenza.
Formulazione e verifica di ipotesi:
Si tratta di metodiche che servono per estendere alla popolazione generale i risultati di studi su
campioni. Queste metodiche sono in grado, anche se con una certa probabilità di errore, di mettere in
evidenza gli effetti diversi e non casuali di fattori che influiscono sull’indagine.
Factor Analysis (Analisi fattoriale) - Una procedura che sostiene che le correlazioni o covarianze tra
un certo numero di variabili osservate derivano dalla relazione tra queste variabili ed un piccolo
numero di variabili sottostanti, inosservabili, latenti, conosciute di solito come fattori comuni,
componenti principali (common factors). I coefficienti di regressione (che predicono il valore di una
variabile data l'altra) delle variabili osservate sui fattori comuni, sono denominati factor loadings. Dalla
fase iniziale, exploratory factor analysis, si arriva ad una confirmatory factor analysis.
I fattori derivati inizialmente sono trasformati per rendere la loro interpretazione più semplice (factor
rotation).
La Varimax rotation è un metodo per attuare la factor rotation.
In pratica, i dati dei protocolli del campione di soggetti scelti per la messa a punto del questionario
vengono intercorrelati e con opportuni calcoli si identifica un piccolo numero di variabili (cioè di
fattori) che possono giustificare la massima parte della varianza o della congruenza tra i dati omogenei
all'interno del singolo soggetto e dell'intero campione.
Se questi fattori risultano conformi a quelli perseguiti come obiettivo della ricerca, il questionario
possiede una validità di struttura.
limiti di tolleranza:
La statistica serve per fornirci valutazioni sul giudizio di normalità e di patologia. In realtà si può essere
interessati solo a sapere se il soggetto cade nei limiti di norma oppure può classificare il soggetto in due
o più categorie alternative definite. Per stabilire i limiti di normalità si utilizzano i limiti di tolleranza
della distribuzione, decidendo a priori il rischio e la percentuale di popolazione che desideriamo. Se la
distribuzione è normale i limiti di tolleranza saranno parametrici, altrimenti si ricorrerà ai non
parametrici.
I limiti di tolleranza a cui si deve fare riferimento sono in realtà due : i limiti interni e i limiti esterni. I
limiti interni ed esterni sono separati da una zona di punteggio in corrispondenza della quale il rischio
di errore non è controllato da nessuna delle due decisioni
RIASSUMENDO:
Campionamento:
Disegno sperimentale:
Analisi statistica: prevede i seguenti momenti: 1- studio del modello, costruzione delle tabelle di
correzione, 3- limiti di tolleranza, 4- valutazione dell’attendibilità (mediante il calcolo della reliability).
19
LA VALUTAZIONE COGNITIVA
Le scale e i test che possono essere utilizzate nella valutazione cognitiva devono far riferimento
necessariamente alle strutture e alle funzioni cognitive. In atto non è disponibile una
concettualizzazione univoca dell’area cognitiva e della valutazione del suo sviluppo.
Basti pensare al concetto di intelligenza e al numero di teorie che su questo concetto sono state
formulate:
esse vanno dal
- interpretazione di Spearman per il quale l’intelligenza dipende da un solo fattore (fattore G)
- interpretazione di Thurstone secondo il quale l’intelligenza è composta da abilità distinte, definite
‘abilità mentali primarie’(comprensione, memoria, ragionamento….ecc..)
- interpretazione di Gardner secondo il quale l’intelligenza è multipla (esisterebbero 9 forme..)
fino ai più attualmente sfruttati che sono:
- i modelli piagetiani attraverso cui si ricercano, a partire dai processi, i principi generali dello
sviluppo (ovvero si dispone di procedure e strumenti atti a descrivere e spiegare i processi)
- i modelli psicometrici in cui le differenze individuali vengono misurate sulla base dei prodotti
(ovvero quantificano i livelli di performance)
- le analisi componenziali ovvero riferite ai processi di elaborazione dell’informazione, codifiche e
strategie (mnestiche, organizzazione delle conoscenza….)
- approccio neuropsicologico ovvero studio delle specifiche funzioni cognitive che nel loro insieme
determinano la capacità di ‘intelligere’.
I principali aspetti della valutazione cognitiva riguardano :
◙ PERCEZIONE
◙ATTENZIONE
◙ MEMORIA
◙COORDINAZIONE VISUO-MOTORIA
◙ LINGUAGGIO
◙FUNZIONAMENTO INTELLETTIVO
◙PROBLEM SOLVING
◙POTENZIALE DI APPRENDIMENTO
◙TRANSFER COGNITIVO
la percezione è il processo di acquisizione di informazioni attraverso gli organi di senso, che
permette di interpretare e attribuire significato agli stimoli sensoriali. Deve perciò essere studiata nei
suoi aspetti visivi, uditivi e somato-sensoriali. Il disturbo che coinvolge la percezione viene detto
agnosia, distingueremo perciò, a seconda dell’organo di senso prove testistiche per :
agnosia visiva percettiva
agnosia tattile
agnosia uditiva associativa
l’attenzione è definita come la funzione mentale relativa alla focalizzazione su uno stimolo per un
dato periodo:
può essere
- selettiva perché focalizzata su un unico stimolo o oggetto
20
- sostenuta perché concernente un periodo di tempo necessario all’esecuzione di un compito durante
il quale focalizzare l’attenzione
- divisa perché prevede di prestare attenzione a più stimoli o compiti contemporaneamente
- shifting ovvero necessita di essere spostata da un compito o uno stimolo all’altro
la memoria ovvero la capacità di registrare, immagazzinare e recuperare le informazioni. Essa viene
distinta in sottocategorie diverse che diversamente vengono considerate nel bambino e nell’adulto. Nel
bambino per semplicità possiamo dire che analizziamo:
-memoria immediata (dati che permangono per secondi o pochi minuti) autobiografica (la propria
-memoria recente (dati che permangono da minuti a ore) storia)
-memoria remota (dati che permangono per ore e giorni) conoscenze generali (dati
culturali appresi)
la coordinazione visuo-motoria ovvero la capacità di integrare gli aspetti percettivi visivi e quelli
relativi alla motricità finalizzati al gesto produttivo, riproduttivo o imitativo. La mancata realizzazione
di questa capacità dà origine alle aprassie ideativa e ideo-motoria
il linguaggio ossia la competenza della comunicazione: esprimere e recepire pensieri, sentimenti,
emozioni ecc, usando parole, azioni, gesti da soli o combinati ; comporta l’analisi della capacità
espressiva–produttiva e recettiva
negli aspetti non verbali verbali
mimico-gestuali fono-articolatori ( i suoni)
posturali morfo-sintattici (regole grammaticali)
prossemiche semantico-lessicali (significato e parole conosciute)
il funzionamento intellettivo ovvero le conoscenze, le competenze e la cosapevolezza , ovvero
esprime lo stadio di pensiero e il livello di sviluppo da esso raggiunto, nelle seguenti funzioni:
-orientamento spaziale (sopra-sotto, vicino/lontano ecc)
-orientamento temporale ( passato, presente, futuro, durata, tempo lineare/circolare)
-stadio del pensiero (dalla prospettiva piagetiana
 senso-motorio (schemi di azioni semplici)
 preoperatorio (schemi simbolici e nozione di funzione
 operatorio concreto (in cui si analizzano le seguenti
operazioni logiche:classificazione, moltiplicazione logica,
seriazione, numerazione)
 operatorio formale (analisi delle relazioni logiche e leggi
generali)
- funzioni esecutive (pianificare, organizzare, orientarsi; ammpiezza/flessibilità/velocità di
apprendimento; discernimento/giudizio
il problem solving ovvero la capacità di valutazione di un problema (ricerca di approcci alternativi
per la risoluzione)
il potenziale di apprendimento cioè l’analisi delle funzioni che non sono mature ma in fase di
maturazione
il transfer cognitivo ovvero la capacità di estendere a situazioni nuove acquisizioni precedenti.
21
La valutazione di tutti questi aspetti in ambito evolutivo non può prescindere naturalmente dal metodo
osservativo perché attraverso l’osservazione si può cogliere il processo di cambiamento nel momento
in cui si realizza.
Non di meno risulta importante appoggiare queste osservazioni alla misurazione delle abilità osservate.
Per quanto riguarda gli strumenti testologici occorre segnalare che la maggior parte di quelli più
accreditati provengono da contesti culturali stranieri e non tutti dispongono di adeguate
standardizzazioni sulla popolazione italiana, pertanto devono essere usati con cautela ed a supporto di
specifiche ipotesi derivate dall’osservazione.
Gli strumenti psicometrici si dividono essenzialmente in due categorie:
-scale psicometriche
-batterie neuropsicologiche
le scale psicometriche sono l’insieme di varie subunità espressione di competenze cognitive che danno
un punteggio finale globale
le batterie neuropsicologiche si basano su associazioni di test valutabili singolarmente e con punteggio
ottenuto per ogni test .
Segue - elenco delle scale psicometriche
- elenco dei test neuropsicologici
VALUTAZIONE COGNITIVA DEL BAMBINO CON RITARDO MENTALE
La valutazione del RM è strettamente correlata con la definizione di RM stesso. Le definizioni più
recenti spostano significativamente l’asse della valutazione verso gli aspetti dell’adattamento e delle
implicazioni ecologiche che l’assessment deve assumere. Pertanto le componenti cognitive vanno
analizzate in stretta relazione con le capacità e i deficit implicati nell’adattamento sociale.
Per definire i livelli di adattamento vengono prese in considerazione le seguenti 10 aree:
comunicazione, cura di sé, abilità domestiche, abilità sosciali, uso delle risorse della comunità,
autodeterminazione, abilità nel provvedere alla propria salute e sicurezza, capacità di funzionamento
nel contesto scolastico, abilità relative alla gestione del proprio tempo libero, abilità lavorative.
Le procedure standardizzate a disposizione per le scale adattive non sono adeguatamente tarate per la
popolazione italiana. La ABS è una scala caratterizzata da dati normativi a partire dai 3 aa di vita in su,
la ABI possiede dati normativi dall’età di 6 fino ai 18 aa di età, valuta le capacità della vita quotidiana.
La Vineland è la scala che offre maggiori garanzie: è standardizzata su 3.000 soggetti normali, sono
stati calcolati i coefficienti di correlazione (per minimizzare i fattori di disturbo), è stata tarata su età
dai 0 ai 19 aa, è composta da 5 sub-scale, per ogni voce il punteggio è stabilito in 3 livelli: 2
punti=soddisfacente, 1 punto=attività nuova, 0 punti= nessuna risposta.
Le 5 sub-scale sono: comunicazione (ricezione, espressione, lettura e scrittura)
Vita quotidiana (autonomia personale, autonomia domestica, comunità)
Socializzazione (rapporti interpersonali, gioco e tempo libero[imitazioni,
motricità])
abilità grosso-motorie (abilità di motricità fine)
comportamenti problematici
VALUTAZIONE COGNITIVA DEL BAMBINO CON DEFICIT VISIVO
Si riferisce al problema del deficit visivo di origine centrale che spesso si affianca a disabilità motoria o
psichcia. Si definisce come il deficit che consegue ad una lesione a carico delle vie e centri nervosi
situati oltre il chiasma ottico. L’assessment di questi bambini , specie in età precoce, è essenziale per
poter impostare un trattamento di stimolazione psichica tempestiva. In alcuni casi sono utilizzabili i test
di sviluppo psichico nei primi anni ben conosciuti, cioè le scale classiche dello sviluppo…, le scale
piagettiane (Uzgiris-Hunt) , i test per gli anni successivi…. La grande variabilità delle prestazioni e dei
disturbi associati possono rendere difficilmente utilizzabili test psicometrici per valutare le capacità
22
cognitve dei bambini con CVI. È però possibile ottenere un profilo dello sviluppo attraverso le scale
appositamente costruite per bambini ciechi o ipovedenti come quelle di Reynell-Zinkin .
La Bayley scales of infant development è una fra le misure più usate per lo sviluppo infantile . Misura
lo sviluppo mentale e motorio, consiste di 3 parti: scala mentale (acuità sensorio-percettiva,
discriminazione, costanza dell’oggetto, memoria apprendimento, risoluzione di problemi,
vocalizzazione, verbalizzazione precoce e pensiero astratto precoce), una scala motoria ( controllo del
corpo, coordinazione e manipolazione digitale) e scala di valutazione del comportamento
(comportamento affettivo, motivazioni e interessi); le voci sono numerate a seconda della difficoltà da
un livello basale ad un livello massimo. I punteggi portano ad un indice di sviluppo mentale e ad un
indice di sviluppo psico-motorio, che vengono poi convertiti in valori età equivalenti. Si usa dai 2 mesi
ai 2 anni di età. Tarata su 1000 bambini sani , il limite è l’incapacità di prevedere con sufficiente
chiarezza lo sviluppo intellettivo futuro.
BRUNET-LEZINE
Oltre ad un punteggio di sviluppo globale , questa scala prevede la possibilità di mantenere separati i
punteggi ottenuti nei 4 campi sondati (controllo posturale e motricità, coordinazione oculomotrice,
linguaggio, relazioni sociali e personali), cosa che permette di studiare i ritmi di sviluppo in ciascuna
area e di individuarne un eventuale ritardo, rendendo possibile, inoltre, un intervento immediato.
STRUTTURA: la scala prevede 10 prove per ciascun livello ; gli item sono ripartiti in 4 campi: motorio
o posturale, verbale, di adattamento con gli oggetti e delle relazioni sociali, inglobando in quest’ultima
categoria la presa di coscienza di sé, le relazioni col prossimo, l’adattamento alle situazioni sociali, i
giochi. L’applicazione del test propriamente detto ed il calcolo del quoziente di sviluppo avvengono a
partire solamente dal IV mese di vita; fino a questa età la scala fornisce un’indicazione generale
sull’andamento dello sviluppo.
REYNELL-ZINKIN SCALES:scale di sviluppo per bambini disabili visivi
Queste scale offrono , ai professionisti che operano con disabili visivi nella prima infanzia, una guida
per la valutazione dell’orientamento nello sviluppo : la conoscenza degli stadi evolutivi raggiunti dal
bambino e la successione degli stessi in sequenza permettono di offrire un insegnamento precoce ed
adeguato. Si esplorano le aree di apprendimento e di sviluppo , particolarmente importanti per bambini
disabili visivi, e si progetta un piano educativo che possa essere condotto dai genitori a casa.
STRUTTURA: sono state selezionate 5 aree principali: adattamento sociale ( valutazione della sfera di
autonomia, come riconoscimento della voce, capacità di vestirsi, autoalimentarsi ecc.), comprensione
sensomotoria (comprensione degli oggetti concreti e delle loro relazioni specifiche), esplorazione
dell’ambiente( orientamento nella stanza, porte, ecc.), risposta al suono e comprensione verbale
(localizzazione e riconoscimento dei suoni), linguaggio espressivo (nominare oggetti familiari, uso e
posizione degli oggetti fino all’abilità di costruire frasi sugli eventi in corso). La presentazione degli
item non è rigida, come anche la somministrazione , visto il target dello strumento. DESTINATARI:
bambini dai 0-5 anni. SOMMINISTRAZIONE: tempo libero individuale. COMPOSIZIONE: 2 scale di
sviluppo motorio, 5 scale di sviluppo mentale . CAMPIONAMENTO: italiano: 176 bambini non
vedenti e ipovedenti (1996).
SCALE PER VALUTARE LE ABILITA’ COGNITIVE NELLA PARALISI CEREBRALE INFANTILE
(PCI).
Partendo dalla centralità dell’azione nella genesi delle rappresentazioni mentali, soprattutto nei primi 2
anni di vita e –secondo Piaget-, è attraverso l’esercizio degli schemi sensomotori che il bambino entra
in contatto con la realtà, se ne impadronisce , crea gli scambi con questa e da questo scambio trae le
strutture cognitive da usare per comprenderla. Teniamo presente che non sempre la PCI si accompagna
a compromissione della sfera psichica (circa 1/3 di bambini con PCI ha sviluppo cognitivo nella
norma). Le scale istituite allo scopo di valutare i deficit cognitivi in questi soggetti devono tenere conto
23
anche del significato che si dà al termine azione, che non consiste semplicemente in un insieme di gesti
motori ma deve tener conto dell’intenzione a cui si finalizza il gesto. Per cui nelle scale entreranno in
qualche modo la valutazione ddi variabili proprie del bambino (aspetti affettivi, percettivi, sensoriali,
motivazioni, capacità mnesiche ecc.) e variabili relative all’interazione con l’ambiente (aspetti sociali,
adeguatezza delle proposte, comprensione della modalità di funzionamento ecc.). l’assessment
cognitivo si avvarrà quindi di strumenti neuropsicologici onde sottolineare gli aspetti deficitari selettivi
in particolare utilizzando strumenti che poco insistano su implicazioni motorie.
Per le scale di sviluppo sicuramente le meglio indicate sono:
SCALE DI UZGIRIS-HUNT. Si tratta di scale ordinali basate sulle teorie piagetiane dello sviluppo
sensomotorio (ovvero che l’intelligenza si sviluppa su una base pratica attraverso l’azione), valutano lo
sviluppo del bambino da 0 a 24 mesi, sono distinti in 6 sottoscale: inseguimento visivo e permanenza
dell’oggetto, relazioni mezzi-fini, imitazione vocale ed imitazione gestuale, causalità operazionale,
relazioni spaziali fra gli oggetti, schemi sensomotori. Rispetto ai tradizionali test di sviluppo della
stessa età questi test sembrano meno influenzati dalla disabilità motoria, sono più suscettibili di
adattamento nelle modalità di somministrazione e migliore codifica ha la risposta.
Un altro test recentemente sviluppato è il FAGAN TEST OF INTELLIGENCE IN INFANCY (FTII): è
utilizzabile soltanto nei primi mesi di vita e fornisce un indice della capacità di processamento delle
informazioni. Deriva dal costrutto teorico di Fanz e consiste nel riconoscimento di volti implicando
così processi percettivi, mnestici e attentivi, cioè funzioni cognitive di base che sottendono a processi
cognitivi più propri dell’età successiva.
Per il bambino con età >2 anni ci si avvarrà di strumenti classici e più specifici come quelli già
segnalati.
GRIFFITHS MENTAL DEVELOPMENT SCALES
Sono scale di concezione europea per la misura del livello intellettivo. Furono pubblicate la prima volta
nel 1954 e coprivano i primi 2 aa di vita. Nel 1970 fu pubblicata l’estensione alla fascia d’età
successiva (2-8 aa). Si tratta della scala di sviluppo più utilizzata nel Regno Unito. Qste scale misurano
aspetti dello sviluppo significativi per l’intelligenza o indicativi della crescita mentale in neonati e
bambini dalla nascita all’ottavo aa di età, permettendo diagnosi certe e sufficientemente rapide per
distinguere gruppi diversi di bambini , il normale dal disabile, il sordo dal sogg. Con ritardo,
l’emotivamente disturbato o inibito da quello con disturbi mentali permanenti. Le Griffits sono quindi
in grado di valutare lo sviluppo intellettivo di bambini con differenti tipologie di handicap (motorio,
sociopersonale, difficoltà di linguaggio, handicap nella manipolazione di oggetti ecc.) grazie alla loro
articolazione in test finalizzati ciascuno all’assessment in un’area specifica. STRUTTURA: sono
costituite da 2 set di scale , ciascuna per una fascia d’età differente:
scale 0-2 anni:
locomotor (54 item), personal-social( 58 item), hearing and language (56 item), eye and hand (54),
performance (54 item);
scale 2-8 aa:
locomotor (86 item), personal-social(86 item), hearing and speech (86 item), hand and eyeco-
ordination (86 item), perforamnce test (86 item), practical reasoning (86 item).
Ogni set consiste di un certo numero di componenti standardizzate; i componenti sono diversi per
ciascuno dei 2 set. Le scale 0-2 aa comprendono 27 componenti, le scale 2-8 aa ne comprendono
22(alcuni sono comuni ad ambedue le scale). Ultima revisione 1996. sono scale destinate a bambini tra
0 e 8 aa, richiedono circa 1 ora di somministrazione. CAMPINAMENTO: scale 0-2 aa: 665 soggetti
(27-28 per mese di età), scale 2-8 aa: 2260 soggetti divisi per fasce d’eà di 1 aa (1970).
SCALA LEITER-R: è una scala completamente non verbale, che non richiede comunicazione verbale
fra esaminatore e soggetto del test, né che quest’ultimo legga o scriva qualcosa. È quindi
particolarmente adatta per bambini ed adolescenti con ritardo cognitivo e con disturbi verbali. Si
24
somministra come un gioco , cosa che la rende divertente per i bambini, e il punteggio è effettuato in
modo semplice e veloce. A differenza dei tradizionali test di QI la Leiter-R pone l’accento
sull’intelligenza fluida , che è la misura più vera dell’intelligenza innata di un individuo. Essa è quindi
meno soggetta a influenze culturali, sociali, educative. STRUTTURA: consiste di 2 batterie
standardizzate: visualizzazione e ragionamento (VR): costituita da 10 subtest per la misura di
capacità cognitive non verbali legate alla visualizzazione , alle abilità spaziali e al ragionamento;
attenzione e memoria(AM): costituta da 10 subtest. Sono incluse inoltre 4 scale di livello( per
l’esaminatore, per il genitore, di autovalutazione e per l’insegnante) , che permettono un’osservazione
multidimensionale del comportamento del soggetto. Le 2 batterie possono essere somministrate
assieme (per un tot di 90 min) o separatamente. Ambedue permettono di ottenere punteggi “di
crescita”, non standardizzati con l’età, che misurano piccoli, ma importanti miglioramenti in soggetti
con gravi deficit cognitivi, in modo che sia possibile monitorarne nel tempo i progressi.
La batteria VR prevede 2 possibilità di valutare l’intelligenza globale: screening di QI breve (25 min),
o scala completa (40 min9 per una stima affidabile completa della intelligenza non verbale. La batteria
AM permette di individuare con precisione soggetti affetti da disturbi da iperattività ne da deficit di
attenzione (ADHD), da disturbi dell’apprendimento (LD) o da altri deficit di carattere
neuropsicologico, contribuendo al punteggio di QI globale grazie ad attendibili indicatori diagnostici
relativi ai punteggi ottenuti dal soggetto alla batteria VR. La batteria AM offre uno screening rapido dei
processi di memoria, per differenziare ADHD e LD, o una diagnosi completa delle capacità di
attenzione e memoria. L’edizione italiana è una traduzione dall’originale non corredata di adattamento:
le norme di riferimento sono quelle USA. È destinata a bambini e adolescenti. Si somministra in 35
min (AM) e 40 min. (VR). CAMPIONAMENTO USA: VR 1719 sogg normali e 692 casi clinici (2-20
aa); AM 763 bambini.
NEMI (NUOVA SCALA METRICA DELL’INTELLIGENZA)
Misura l’intelligenza di soggetti tra 3-15 aa, offre diversi vantaggi di ordine pratico rispetto a strumenti
simili: la possibilità di seguire un bambino durante tutta la durata della scuola dell’obbligo, dalla
materna alla media, evitando di cambiare tipo di test. È rapida e semplice da applicare, il sistema di
punteggio segue la dispersione standard sec. Wechsler, che permette di cogliere nel bambino, oltre alla
sua posizione rispetto ai coetanei, anche la valutazione della gravità del ritardo.
STRUTTURA:consiste di 74 prove ordinate dalla più facile alla più difficile e basate su numeri,
disegni, problemi , andando così a sondare i processi di memorizzazione, le capacità logiche, la cultura
generale e l’orientamento temporale nel soggetto. Oltre ad un risultato globale in QI, fornisce strumenti
per l’interpretazione analitica dei risultati individuali. Nella valutazione si deve tener conto del valore
di ciascuna prova in quanto indice di livello intellettivo e dell’estensione della dispersione dei risultati
in rapporto all’età mentale di ogni soggetto. DESTINATARI: 3-15 AA, SOMMINISTRAZIONE 1 H
C.A, CAMPIONAMENTO: ITALIANO 226 BAMBINI 4-13 AA (1980-81)
LA SCALA STANDFORD-BINET
Binet e il modello metrico di intelligenza
Il primo test nato per valutare le differenze tra bambini normali e con ritardo mentale conteneva circa
30 item (singola unità di cui è costituito un test) di comprensione e ragionamento.
La prima versione è del 1904, le revisioni sono avvenute nel 1908 e 1911. Per la prima volta si
studiano con questo test direttamente le capacità complesse e non le abilità percettive di base.
Nel 1916 viene pubblicata la versione americana Stanford-Binet da parte di Terman. Dal 1920 al 1940
avvengono continue revisione della Stanford-Binet. Nel 1966 c’è la revisione della Binet-Simon in
Francia ad opera di René Zazzo.
La tecnica di Binet
25
Si definisce tecnica dei "gruppi contrapposti". Nella sostanza si prendono due campioni considerati
"estremi" per una certa abilità e, una volta somministrata una serie di prove, si individuano quelle prove
che maggiormente mettono in evidenza la differenza tra i due gruppi considerati.
Esempi di gruppi contrapposti nella pratica psicometrica: 1) maschi e femmine, 2) giovani e anziani,
3) normali e patologici.
Binet aveva a disposizione bambini normali e bambini con ritardo ospiti dell'istituto presso il quale
lavorara Theodore Simon, il Perray-Vaucluse. Concetto di base della teoria du Binet è la definizione di
età mentale.
• Età mentale. Consiste in una stima dell'età cronologica che un certo soggetto dovrebbe avere sulla
base del confronto della sua prestazione con quella di un campione rappresentativo di individui di
diverse classi dì età. Ad esempio un bambino di otto anni ha una età mentale dì 10 nel senso che risolve
compiti che sono risolti usualmente da bambini di 10 anni (e non di otto). Nella scala del 1908 ci sono
50 item, 4-5 item per ogni anno successivo di età tra i 3 e i 15 anni.
Esempio: Ricordare una lista di cifre. 2 cifre: due anni mentali 3 cifre: tre anni mentali, 5 cifre: otto
anni mentali, 7 cifre: 15 anni mentali.
Binet aveva cioè strutturato un metodo del calcolo dell'età mentale che era basato su delle ponderazioni
a priori.
Altro concetto presente nella scala è il così detto QI di rapporto. Si tratta di una concezione elaborata
nel 1912 da uno psicologo tedesco, William Stern, egli ,sulla base della scala dei due autori francesi
enunciò la nozione di Quoziente intellettivo.
Il QI. è costituito dal rapporto (da qui il termine quoziente), moltiplicato per 100 (al fine di evitare i
decimali) tra età mentale e età cronologica. Esprime la rapidità di sviluppo, oppure più genericamente il
vantaggio o lo svantaggio che un certo bambino mostra rispetto alla media dei suoi coetanei.
Esempi: età ment. 12, età cron. 10; (12/10)x100=120
età ment. 10, età cron. 12; (1 0/1 2)xl 00=83
Quali sono i vantaggi della "scala metrica di intelligenza"?
1) cerca di valutare i processi mentali complessi invece dei soli processi sensoriali.
2) ordina la difficoltà di una serie di item (complessità cognitiva) in base all'età in cui gli item vengono
normalmente risolti.
3) ordina di conseguenza anche gli individui sulla base della loro età mentale: sotto la norma, sopra la
norma e nella norma.
4) fornisce un punteggio univoco che esprime il grado di sviluppo in termini di rapporto tra età mentale
e età cronologica: Il QI.
COMPOSIZIONE: la scala consiste in 15 subtest. Il subtest ‘vocabolario’ è somministrato per primo
per definire un livello base necessario per iniziare le voci di tutti gli altri subtest. Il livello base per ogni
test corrisponde alle prime 2 voci consecutive corrette, mentre il livello massimo è costituito da 4 errori
26
consecutivi. Il solo test a tempo è costituito dall’analisi del disegno. I subtest sono: vocabolario,
comprensione, assurdità, relazioni verbali, analisi del disegno, copia, moatrici, confronto quantitativo,
serie di numeri, formazione di equazioni, memoria per disegni, memoria per frasi, memoria per cifre,
memoria per oggetti, i subtest sono raggruppati in 4 aree: ragionamento verbale, ragionamento
astratto/visivo, ragionamento quantitativo, memoria a breve termine. Dal punteggio di area si ottiene il
punteggio di somma. Questi punteggi standard sono equivalenti al QI, hanno una media 100 e una
deviazione standard di 16. l’età di valutazione va da 2 a 23 anni.
TEST DI INTELLIGENZA DI WECHSLER
Premessa per capire come si è arrivati alle scale di intelligenza di Wechsler è tornare a due concetti già
espressi in precedenza: il concetto di fattore generale d’intelligenza di Spearman e il concetto di abilità
primarie di Thurstone.
Partiamo da Spearman: egli ha stabilito le sue deduzioni rifacendosi a 2 nozioni : la nozione di
coefficiente di correlazione e la nozione di analisi fattoriale. Il coefficiente di correlazione consiste
nell’indice del grado di relazione tra 2 variabili o tra 2 misure entrambe registrate sullo stesso campione
di individui. L’indice varia da –1 (perfetta correlazione negativa – come avviene per esempio tra le
variabili attenzione e mancanza di sonno) a +1 (perfetta correlazione positiva – come ad es. reddito e
soddisfazione personale). Lo 0 significa assenza di relazione. L’indice può quindi essere interpretato in
termini di grado di somiglianza tra 2 misure. L’analisi fattoriale è una tecnica multivariata cioè che
prende in esame più variabili assieme, di analisi dei dati che consente, partendo dalle intercorrelazioni
tra le variabili considerate, di individuare fattori comuni non direttamente misurabili ma che sono
spiegati dalle parti comuni delle variabili osservate. In questo modo è possibile ridurre le dimensioni in
gioco perché le variabili tendono ad assemblarsi in fattori numericamente inferiori. Il primo metodo di
analisi fattoriale è stato applicato da Spearman ad una serie di correlazioni ottenute da un campione di
soggetti in diverse prove: voti scolastici, semplici test, valutazioni dell’intelligenza fornite dai
professori. Egli individuò così un fattore generale comune a tutti i tipi di variabili possedute, il fattore g
o fattore generale di intelligenza, più una serie di altri fattori specifici per le diverse misure
considerate.Spearman considerava il suo fattore g come una sorta di ‘energia mentale’. In modo più
pragmatico il fattore g aveva forti correlazioni (cioè psicometricamente ‘saturava’) con 2 prove di
ragionamento: la capacità di fare inferenze( comprendere quale è il nesso, la relazione tra 2 entità come
ad es. nella scala Wechsler al test somiglianza-> arancia e banana = frutti) e di generalizzare o
associare( trovare un’altra entità che soddisfi l’associazione tra una entità e una relazione , come sopra-
>arancia e frutti=possibile associazione banana). Il fattore g costituisce il primo esempio di modello
fattoriale d’intelligenza.
Secondo Thurstone le tecniche di analisi fattoriale ed un approccio più analitico alle capacità umane
potevano mettere in dubbio il modello ad un solo fattore di Spearman. Egli negli anni 30 individuò una
serie di abilità separate che definì ‘abilità primarie’, che erano: 1-comprensione verbale, 2-fluidità
verbale, 3-abilità numerica, 4-abilità inferenziale, 5-abilità spaziale, 6-velocità percettiva, 7-memoria.
Per inciso, questa diatriba trovò nel 1966 ad opera di Horn e Cattell la sintesi seguente – detta del
‘fattore di terz’ordine-‘:
1-intelligenza cristallizzata (acquisizioni e conoscenze organizzate nella memoria), 2-intelligenza fluida
(capacità basata sulle capacità di ragionamento e non su quelle ‘a priori’), 3-fattore generale di
intelligenza visuo-spaziale, 4-fattore generale di creatività(capacità di scoprire soluzioni nuove e
originali ), 5-fattore generale di velocità di reazione .
In questa discussione s’inserisce David Wechsler. Egli era psicologo in un ospedale psichiatrico. Il suo
compito era di valutare le capacità intellettive dei suoi pazienti. Nel suo percorso si trovò a criticare sia
le teorie di Spearman e di Thurston, sia l’approccio psicometrico di Binet.
27
La scala di Stanford-Binet era considerata da Wechsler inadatta perché era fatta solo per bambini, era
troppo basata sulla verbalizzazione e il QI di rapporto non poteva valere per gli adulti. Egli aveva nei
confronti dell’intelligenza un approccio di tipo pratico piuttosto che teorico. Era convinto che
l’intelligenza generale esiste e può essere misurata. Sosteneva inoltre che il concetto di QI- benchè
ampiamente criticato- avesse comunque una sua utilità. L’intelligenza è la capacità generale di un
soggetto a far fronte al mondo circostante. Si tratta di Wechsler di una entità generale o globale, ovvero
una entità multideterminata ( e non un tratto indipendente e singolarmente definito), evita pertanto di
indicare qualche singola abilità come determinante o essenziale. Per Wechsler si tratta dunque di
qualcosa che viene dedotta dal modo in cui queste abilità si manifestano nelle diverse condizioni e
circostanze. Inoltre l’intelligenza per essere buona e adatta deve utilizzare quanti più linguaggi
differenti possibili. Questi linguaggi differenti possono essere misurati attraverso i test, più elevata è la
varietà di test più linguaggi vengono testati. Inoltre il comportamento intelligente , secondo le
indicazioni di Wechsler, comprende anche fattori che dipendono da tratti della personalità e del
comportamento volitivo. Questi sono definiti fattori non intellettivi dell’intelligenza che attivano e
dirigono l’utilizzazione delle altre capacità.
Wechsler ovviò ai problemi della Stanford-Binet introducendo item più adatti a tutte le età, divise le
sue scale in due sottoscale (verbale e performance) e inventò il QI di deviazione. Le scale di Wechsler
sono 3: la Wechsler Preschool and Primary Scale of Intelligence (WIPPSI-R) per 3-7 anni di età; la
Wechsler Intelligence Scale for Children (WISC-III/R) per età dai 6 ai 16 anni, la Wechsler Adult
Intelligence Scale (WAIS-R) per 16-74 aa.per quanto riguarda la WISC venne pubblicata nel 1949
sulla scia della analoga versione per adulti. La WISC era stata costruita per bambini tra i 5 e i 15 aala
principale novità di tale scala è stato l’abbandono del concetto di età mentale (EM) come misura di
intelligenza per Binte un bambino di 6 aa era atteso avere una EM di 6 e così via. Questa concezione di
EM è stata ampiamente contestata a livello sia clinico che statistico perché se vale questa affermazione
significa che se per es. avere una EM 7 tutti i bambini che ottengono questo punteggio hanno un livello
mentale di 7. questa conclusione di uguaglianza viene però immediatamente smentita dalla
osservazione clinica , perché è intuitivo che un bambino di 5 aa con EM 7 e un bambino di 10 aa con
EM 7 non hanno sicuramente lo stesso tipo d’intelligenza. Da ciò deriva che anche la misurazione del
QI che si calcola dal rapporto EM/EC risente dello stesso difetto , ovvero del tentativo di eliminare la
variabile età. Infatti un bambino di 5 aa con EM 6 ha QI di 120. anche un bambino di 10 con EM 12 ha
un QI di 120, mal primo bambino è avanti di 1 aa e il secondo bambino è avanti di 2 aa, quindi se non
si specifica il QI e a che età non si elimina il fattore età (questo problema divenne vieppiù evidente
quando tentò di costruire i QI degli adulti). Il problema è stato appunto ovviato introducendo il
concetto di QI di deviazione , ovvero confrontando le prestazioni al test di un soggetto solo con
punteggi ottenuti da altri soggetti della stessa età ( ovvero QI di deviazione con media 100 e ds 15 o 16,
non più indice di sviluppo ma indicatore del rango che occupa il punteggio ottenuto tra quelli della
popolazione di riferimento).
COMPOSIZIONE: La WISC-R (che non differisce dalla ultima revisione che si chiama WISC III) è
costituita da 12 test: informazione, completamento di figure, somiglianze , storie figurate, aritmetica,
disegno coi cubi, vocabolario, ricostruzione di oggetti, comprensione, cifrario e labirinti.
Originariamente era stata aggiunta una prova di performance supplementare –riproduzione di sequenza
di posizione- che dopo il campionamento è stata tolta perché poneva problemi di somministrazione e
non soddisfaceva i criteri statistici applicati. Nella ultima revisione è invece stato introdotto il test
associazione simboli/numeri e resi opzionali sia il labirinto che il cifrario, oltre alla memoria di cifre
già opzionale nella WISC-R. il calcolo del QI viene fatto escludendo la memoria di cifre per la scala
verbale e i labirinti/cifrario per quella non verbale. Questi sono stati considerati test supplementari da
applicare se si ha tempo a disposizione oppure se non sono applicabili altre prove. La distinzione tra
scala verbale (V) e non verbale (NV) trova le sue motivazioni innanzitutto perché costituisce un modo
28
per identificare due importanti modi di esprimersi delle abilità umane. Altresì è stato dato uguale peso a
tutte le prove che costituiscono il test basandosi sulla concezione che le misure di intelligenza sono più
utili se ‘armonizzate’ piuttosto che ‘gerarchizzate’. I singoli test valutano diverse abilità:
informazione=cultura generale, analogie=capacità concettuali e facilità di linguaggio ragionamento
aritmetico= abilità di calcolo
; Vocabolario= capacità recettive; Comprensione= ragionamento pratico; Memoria di cifre= attenzione
e memoria a breve termine; Completamento di disegni= relazioni parte-intero; Riordinamento di
disegni= capacità di sequenzamento visivo, consapevolezza sociale, pianificazione e capacità di
comprendere le relazioni fra gli eventi; Disegno con cubi, ricerca di simboli e Ricostruzione di figure =
coordinazione visuo-motoria; Associazione simboli/numeri= coordinazione visuo-motoria e efficienza
motoria; Labirinto= capacità visuo-motorie e di pianificazione.
CAMPIONAMENTO: Le norme di campionamento derivano da gruppi rappresentativi della
popolazione dei bambini degli Stati Uniti. La gamma di età coperta va dai 6 anni e O mesi ai 16 anni e
11 mesi. La campionatura non ha potuto essere strettamente casuale, per rispettare la rappresentatività
della popolazione si è dovuti ricorrere ad una campionatura stratificata, con riferimento ai dati del
censimento americano del 1970. Per età sono stati selezionati 200 soggetti. Il sesso è stato valutato in
maniera uguale, benché nella popolazione americana tra i 6 e i 16 anni fossero prevalenti i maschi, per
ogni strato è stato considerato un campione di 100 soggetti per sesso. I gruppi etnici sono stati
rappresentati sempre secondo le indicazioni del censimento; le regioni geografiche sono state divise in
4 settori(nord -est, centro-nord,sud e ovest). I soggetti sono stati estratti dal gruppo normativo in base
alle proporzioni di soggetti residenti in ciascuna regione. Sono state prese in considerazione 5 categorie
occupazionali (1= libero professionista,=dirigenti /ufficiali/ impiegati /imprenditori /commercianti;
3=artigiani /operai specializzati/capi operai; 4=operai/personale ausiliario/agricoltori; 5=lavoratori non
qualificanti/braccianti. Sono state poi prese in considerazione derivazioni urbane ed extraurbane
secondo la convenzione urbane>2500 abitanti. Il campione di standardizzazione fu inoltre limitato a
soggetti normali, intendendo con ciò bambini che non fossero riconosciuti insufficienti mentali
istituzionalizzati o sospetti insufficienti mentali e soggetti con gravi problemi emozionali o familiari. I
dati ottenuti dal campionamento per quanto riguarda queste variabili è risultato soddisfacente. Le
proporzioni statistiche della popolazione americana sono state abbastanza rispettate, sia per
distribuzione di razza che di ceto sociale.
DAI PUNTEGGI GREZZI AI PUNTEGGI PONDERATI: La distribuzione dei punteggi grezzi di
ogni livello di età è stata convertita per ciascuno dei 12 test componenti la batteria in una scala avente
media 10 e deviazione standard 3. Il primo passo è stato preparare la distribuzione della frequenza
cumulativa dei punteggi grezzi per ogni gruppo di età, la distribuzione è stata poi normalizzata e infine-
sono stati calcolati i punteggi ponderati corrispondenti a ciascun punteggio grezzo. Per ogni test è stata
controllata la progressione dei punteggi grezzi di età in età e sono state eliminate mediante tecniche di
compensazione alcune piccole irregolarità. Per ciascuno dei 12 test e ad intervalli di 4 mesi sono stati
calcolati i punteggi ponderati , essi vanno da 1 a 19 e presentano 3 deviazioni standard parte per parte
della media. I QI vengono poi ottenuti basandosi sui punteggi ponderati ottenuti separatamente per
ciascun gruppo di età, ponendo l'accento sul confronto di un soggetto con quelli della sua età
cronologica. Le tabelle dei QI sono calcolate sulla base di 3 punteggi : di somma dei test verbali a dare
il QI Verbale, la somma dei punteggi ai test di performance a dare il QI non verbale e la somma dei due
precedenti punteggi a dare il QI totale. Le medie e le dev St delle tre somme di punteggi sono state
calcolate per ciascun gruppo di età. L'esame di queste tre quantità mostra un alto grado di
corrispondenza. Di conseguenza come base per la costruzione dei QI sono state usate le rispettive
somme dei punteggi ponderati di tutti i gruppi di età Per ogni scala la m e sd delle corrispondenti
somme dei punteggi ponderati sono state fissate a 100 e 15. I QI sono forniti per tutti i possibili valori
delle somme dei punteggi ponderati. I valori considerati sono dati finoa 3 sd per la scala V e 2/3 di sd
29
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c
Griglia test spedagogia speciale perin c

Weitere ähnliche Inhalte

Ähnlich wie Griglia test spedagogia speciale perin c

Rimini 2014 spread trading quantitativo
Rimini 2014   spread trading quantitativoRimini 2014   spread trading quantitativo
Rimini 2014 spread trading quantitativo
Luigi Piva CQF
 
Slide 2 test psicologico
Slide 2 test psicologicoSlide 2 test psicologico
Slide 2 test psicologico
Marco Morra
 
Epidemiologia e misure
Epidemiologia e misureEpidemiologia e misure
Epidemiologia e misure
Dario
 
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
Istituto nazionale di statistica
 
Appunti statistica descrittiva 1
Appunti statistica descrittiva 1Appunti statistica descrittiva 1
Appunti statistica descrittiva 1
ESmargiassi
 
02statistica 146 sino_intervallo_confidenza
02statistica 146 sino_intervallo_confidenza02statistica 146 sino_intervallo_confidenza
02statistica 146 sino_intervallo_confidenza
Angelo Barbato
 
Misura psicologia esercizi-5-6-7-8-9
Misura psicologia esercizi-5-6-7-8-9Misura psicologia esercizi-5-6-7-8-9
Misura psicologia esercizi-5-6-7-8-9
stefano_s
 
Metodologia e Tecniche della Ricerca Sociale
Metodologia e Tecniche della Ricerca SocialeMetodologia e Tecniche della Ricerca Sociale
Metodologia e Tecniche della Ricerca Sociale
amandadrafe
 

Ähnlich wie Griglia test spedagogia speciale perin c (9)

Rimini 2014 spread trading quantitativo
Rimini 2014   spread trading quantitativoRimini 2014   spread trading quantitativo
Rimini 2014 spread trading quantitativo
 
Slide 2 test psicologico
Slide 2 test psicologicoSlide 2 test psicologico
Slide 2 test psicologico
 
Epidemiologia e misure
Epidemiologia e misureEpidemiologia e misure
Epidemiologia e misure
 
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
F. Pammolli: Struttura e dinamica dei sistemi economici Alcuni strumenti d’in...
 
Appunti statistica descrittiva 1
Appunti statistica descrittiva 1Appunti statistica descrittiva 1
Appunti statistica descrittiva 1
 
02statistica 146 sino_intervallo_confidenza
02statistica 146 sino_intervallo_confidenza02statistica 146 sino_intervallo_confidenza
02statistica 146 sino_intervallo_confidenza
 
Misura psicologia esercizi-5-6-7-8-9
Misura psicologia esercizi-5-6-7-8-9Misura psicologia esercizi-5-6-7-8-9
Misura psicologia esercizi-5-6-7-8-9
 
Metodologia e Tecniche della Ricerca Sociale
Metodologia e Tecniche della Ricerca SocialeMetodologia e Tecniche della Ricerca Sociale
Metodologia e Tecniche della Ricerca Sociale
 
La categorizzazione
La categorizzazioneLa categorizzazione
La categorizzazione
 

Mehr von imartini (20)

2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismo2 parliamo e discutiamo del bullismo
2 parliamo e discutiamo del bullismo
 
Scheda bambino
Scheda bambinoScheda bambino
Scheda bambino
 
Subitizing
SubitizingSubitizing
Subitizing
 
intelligenza emotiva
intelligenza emotivaintelligenza emotiva
intelligenza emotiva
 
Il quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematicaIl quaderno delle_regole_di_matematica
Il quaderno delle_regole_di_matematica
 
comunicazione_non_verbale
 comunicazione_non_verbale comunicazione_non_verbale
comunicazione_non_verbale
 
Adhd u
Adhd uAdhd u
Adhd u
 
DSA
DSADSA
DSA
 
osservazione fattoei di rischio dsa
osservazione fattoei  di rischio dsaosservazione fattoei  di rischio dsa
osservazione fattoei di rischio dsa
 
Prerequisiti
Prerequisiti Prerequisiti
Prerequisiti
 
Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura Per sito-prerequisiti-letto-scrittura
Per sito-prerequisiti-letto-scrittura
 
scrittura
scritturascrittura
scrittura
 
Dispensa dsa
Dispensa  dsaDispensa  dsa
Dispensa dsa
 
Dentro ai dsa n
Dentro ai dsa nDentro ai dsa n
Dentro ai dsa n
 
dislessia
dislessiadislessia
dislessia
 
stili di apprendimento
stili di apprendimentostili di apprendimento
stili di apprendimento
 
DSA
DSADSA
DSA
 
Dsa fasce eta
Dsa  fasce etaDsa  fasce eta
Dsa fasce eta
 
Sviluppo percettivomotorio
Sviluppo percettivomotorio Sviluppo percettivomotorio
Sviluppo percettivomotorio
 
prerequisiti della scrittura
prerequisiti della scritturaprerequisiti della scrittura
prerequisiti della scrittura
 

Griglia test spedagogia speciale perin c

  • 1. La medicina riconosce l’importanza della misura. Ad es. la fisiologia usa le leggi e i metodi di indagine della fisica. Già alla fine dell’800 Kraepelin cercava di mettere in luce deviazioni del comportamento attraverso test psicologici. La esistenza di parametri quantitativi avrebbe permesso secondo Kraepelin di stabilire con precisione e affidabilità il CONFINE tra malattia e normalità. In questa direzione andavano i tentativi del 1° Novecento di definire in modo scientifico i criminali attraverso misure delle loro caratteristiche fisiche La rilevazione di informazioni può avvenire sia sottoforma verbale(colloquio, esplorazione, intervista e raccolta anamnestica ) che sottoforma scritta (test o questionari). Il colloquio presenta naturalmente dei vantaggi: Flessibilità Possibilità di ottenere molte informazioni I quali però sono controbilanciati dai seguenti svantaggi Minor possibilità di confronto Artefatti soggettivi Fattori di disturbo I test psicometrici si usano se vogliamo OBIETTIVARE differenze tra pazienti diversi (INTERINDIVIDUALI) o differenze nell’evoluzione delle condizioni dello stesso paziente (INTRAINDIVIDUALI). IL PROCEDIMENTO prevede quindi che si rilevino le caratteristiche peculiari e si confrontano con le medie di 1 GRUPPO DI CONFRONTO (da cui il termine di TEST NORMOORIENTATI). Si tratta della storica controversa tra IDIOGRAFIA e NOMOTETICA. Per la idiografia l’obiettivo è la ricerca dell’unico e inequivocabile e comprende necessariamente concretezza e accuratezza nella descrizione di oggetti complessi. La nomoetica si pone come obiettivo la ricerca di regole e leggi generali , tendendo verso le generalizzazioni per poter elaborare delle affermazioni centrali , favorisce una struttura analitica del pensiero e lo sviluppo di esperimenti. Così il giudizio clinico viene detto anche giudizio causistico . all’opposto il giudizio statistico si caratterizza per una elaborazione meccanica di dati. Noi ci occupiamo in questo corso della ricerca di leggi e regole. Necessitiamo quindi di dati numerici. I dati numerici che noi trattiamo dovranno inoltre essere analizzasi statisticamente. Cio che caratterizza la statistica è che essa si occupa di proprietà collettive: l’individuo ha importanza solo in quanto elemento di un aggregato. LA CARATTERISTICA DELLA STATISTICA E’ CHE ESSA SI OCCUPA DI PROPRIETA’ COLLETTIVE. Cosa fa la statistica? ESTRAENDO A CASO DA UNA POPOLAZIONE ALCUNI CAMPIONI – CHE PURTROPPO POSSONO ESSERE TRA LORO DISOMOGENEI -SI CERCA (con la statistica) DI DETERMINARE LE PROPRIETA’ DEL GRUPPO, OVVERO UNA LEGGE GENERALE CHE DESCRIVE IN MEDIA UN COMPORTAMENTO DELLA POPOLAZIONE ALLO STUDIO I dati psicometrici sono particolari classificazioni del comportamento, attraverso cui un fenomeno complesso viene trasformato in una misura (per es. il punteggio d un test), che esprime la quantità in cui è presente una certa abilità o caratteristica del soggetto. 1
  • 2. Secondo la fondamentale teoria della misurazione, proposta da S. Stevens nel 1946 e nel 1950, la misurazione è un’associazione tra una categoria (o simbolo formale) e un evento, o un oggetto o un individuo, in base a regole. Da un lato, la “realtà”: • Eventi che accadono nel tempo • Oggetti presenti nel mondo reale • Individui che attuano dei comportamenti Dall’altro, le categorie: Sistemi di categorie con i quali etichettiamo, codifichiamo, organizziamo gli eventi, gli oggetti o gli individui che fanno parte del mondo e della nostra esperienza sensibile. In mezzo, le regole Esistono delle regole di corrispondenza da rispettare per misurare in maniera corretta e accurata. In modo più formale si dice che deve esistere • Un sistema empirico che ha determinate caratteristiche (la “realtà”) • Un sistema “numerico” (leggi: formale) che deve riflettere le caratteristiche del sistema empirico (le categorie) • Una funzione di omomorfismo che lega il sistema empirico con quello numerico (regole) La misurazione di un sistema empirico deve perciò costruire un sistema numerico in modo tale che sia in una relazione di omomorfismo con il sistema empirico. Il caso o soggetto è ciò a cui si attua la misurazione. La variabile è l’insieme di categorie che utilizziamo per eseguire la misurazione del caso o soggetto. Perciò, una variabile è una proprietà del soggetto (qualità, caratteristica), che varia da soggetto a soggetto. Esempi di variabili: • Colore occhi (neri, verdi, marroni, azzurri) • Altezza (0 cm, 1 cm, …, 1,60 m, 1,61 m, …) • Altri La variabile è formata, quindi, da una serie di categorie che variano tra loro (da cui variabile). Ciascuna categoria viene detta livello, o modalità, della variabile. Per esempio, la variabile colore degli occhi è formata da almeno 4 livelli (azzurro, verde, marrone, nero) che a seconda del soggetto a cui vengono applicate cambiano. ES. Misurazione di due soggetti in base alla variabile Altezza Si noti che, per rilevare e registrare le misurazioni eseguite, dobbiamo utilizzare uno strumento di misura- per es: • un metro e una matrice dove scrivere le altezze • un sistema di categorie e una griglia dove scrivere i colori Se lo strumento di misura è in qualche modo problematico la nostra misurazione non può essere corretta. E’ quindi necessario utilizzare strumenti di misura buoni e utilizzarli bene. Quindi: Evitare di utilizzare un metro elastico! Fissare bene il punto 0 del metro col punto di inizio della nostra misurazione! 2
  • 3. Evitare un sistema di categorie per i colori degli occhi sbagliato (giallo, bianco, nero, rosso)! Far eseguire all’osservatore un esame della vista! Ecc Ci possono essere 4 tipi di variabili a seconda del rapporto che intercorre tra le categorie (o livelli) che compongono le variabili stesse. Per identificare in quale delle quattro categorie ricade la nostra variabile è, perciò, necessario capire che rapporto c’è tra i livelli della variabile (cioè capirne la natura). COS’È UNA VARIABILE CATEGORIALE: Se le categorie della variabile sono delle pure e semplici categorie discrete, qualitativamente diverse l’una dall’altra, e non possono essere ordinate in nessun modo, allora la variabile è detta categoriale o nominale o mutabile. Esempi: •Genere (maschi, femmine) • Religione (cattolica, ebrea, musulmana, protestante). Ai livelli della variabile possono essere assegnati dei nomi, come maschi e femmine, o dei codici astratti (es., a, b, c, d), ma mai dei valori numerici (es., 1, 2, 3, e 4) o ordinali (I, II, II, IV). COS’È UNA VARIABILE ORDINALE: Se i livelli possono essere ordinati in modo tale che uno viene prima di un altro, e così via, allora la variabile viene detta ordinale. Esempi: • Classe sociale (alta, media, bassa) • Domande (da quelle più aperte a quelle più chiuse) Ad ogni livello può essere quindi assegnato un valore ordinale (I, II, II, IV) ma mai un valore numerico che indichi che l’intervallo tra i livelli è costante o che il rapporto tra i livelli è costante (es., 1, 2, 3, e 4). È possibile immaginare che le diverse categorie di una variabile ordinale giacciano su di un continuum che va da un polo col massimo della proprietà della variabile ad un polo col minimo della proprietà. Per esempio, le domande in un questionario giacciono su un continuum che va da massima a minima apertura della domanda. COS’È UNA VARIABILE A INTERVALLI: Se i livelli della variabile possono essere, oltre che ordinati, anche numerati, cosicché ciascun livello corrisponde ad un numero, e se l’intervallo tra un livello e quello adiacente è costante (unità), allora la variabile viene detta a intervalli (o a intervalli equivalenti).L’aspetto fondamentale è che l’intervallo, cioè la differenza tra i livelli, sia costante. Perciò, è assolutamente equivalente se i valori attribuiti ai livelli sono 0, 1, 2, 3 e 4, oppure –2, –1, 0, +1, +2. Per esempio, • Temperatura in Fahrenheit o in centigradi • QI, • Test .di atteggiamento e personalità. Poiché la scala viene attribuita arbitrariamente ai livelli, anche il valore zero è un valore arbitrario assegnato ad un livello, e non uno zero assoluto o naturale. Perciò, l’assegnazione del valore zero ad una caratteristica psicologica non indica un’assenza reale di tale caratteristica ma un punto arbitrario del continuum nell’intensità con cui tale caratteristica si può manifestare. Conseguenze: se lo zero è arbitrario, non si può dire che una temperatura di 20° è doppia rispetto a una di 10° (sebbene lo si faccia nel linguaggio quotidiano), ma solo che la differenza che esiste tra 20° e 10° è la stessa che esiste, per esempio, tra 30° e 20°. COS’È UNA VARIABILE A RAPPORTI: Quando lo zero indica la vera assenza di quantità misurata, la variabile in questione è detta a rapporti (o a rapporti equivalenti).Se il punteggio della variabile è doppio dell’altra, anche la stessa quantità misurata è il doppio dell’altra. Esempi, • Il n° di errori in un testo scritto • Il numero dei figli • Età • Peso • Temperatura misurata sulla scala Kelvin. (lo zero implica la mancanza di movimento delle molecole!). 3
  • 4. CLASSIFICAZIONE DIFFERENTE Da alcuni autori la distinzione qualitative/quantitative raggruppa categorie diverse: 1. Categoriali o nominali o mutabili=Qualitative 2. Ordinali Quantitative 3. A intervalli equivalenti* 4. A rapporti equivalenti* *Quantitative misurabili SEMPLICE METODO PER L’INDIVIDUAZIONE DELLE VARIABILI 1] I livelli della variabile sono ordinabili in un qualche modo naturale? No, allora la variabile è nominale. Sì, allora: 2] Gli intervalli tra i livelli della variabile sono equivalenti? No, allora la variabile è ordinale. Sì, allora: 3] Lo zero indica veramente l’assenza della quantità misurata? No, allora la variabile è a intervalli. Sì, allora la variabile è a rapporti. VARIABILI in base alla MISURABILITÀ DISCRETE Si dice discreta quella variabile che può assumere un numero finito di valori, solitamente non frazionari, all’interno del suo ambito di variazione o tra due suoi punti qualunque (es., numero di figli). Anche se viene usata a volte come sinonimo di variabile qualitativa, cosa di per sé scorretta, in realtà può assumere i valori della categorie delle variabili nominali, i ranghi delle variabili ordinali e anche i numeri interi delle variabili quantitative (per esempio, 3, 4, 5, e 6). Assume sempre un numero finito di valori all’interno del suo ambito di variazione. CONTINUE Si dice continua quella variabile che può assumere i valori di tutti i numeri reali, cioè di quei numeri che contengono gli interi e tutti i punti frazionari presenti tra di loro. Cioè, anche se il suo ambito di variazione è limitato, può assumere un numero infinito di valori. Es., altezza. LE VARIABILI in base al RUOLO NELLA RICERCA INDIPENDENTE La variabile indipendente è la variabile che il ricercatore suppone sia la causa di un determinato effetto. DIPENDENTE La variabile dipendente è la variabile che il ricercatore suppone dipenda dalla variabile indipendente. Le variabili indipendenti possono essere manipolate o non manipolate a seconda che il ricercatore possa controllarle o manipolarle attivamente e a piacere (dose di un farmaco, intensità della luce). VARIABILI in relazione all’OGGETTO: COMPORTAMENTALI Variabili osservabili, costituite cioè da una risposta palese. PERSONALI o SOGGETTIVE Variabili che riguardano il soggetto, alcune delle quali sono osservabili (colore degli occhi, sesso), altre non osservabili (intelligenza, nevroticismo, atteggiamento) che vengono inferite dal comportamento del soggetto e sono dette costrutti. VARIABILI in relazione all’ERRORE CHE PROVOCANO NELLA RICERCA VARIABILI DI CONFUSIONE O DISTURBO Variabili non controllate, o controllate male, che confondono l’effettiva relazione tra la VI e le VD nella ricerca (dovute alla situazione e alla condizioni in cui si fa la ricerca, ai soggetti, agli sperimentatori, ecc.). Esse in genere inducono i cosiddetti errori casuali. Gli errori casuali sono errori la cui sommatoria, se facessimo infinite misurazioni, tenderebbe a zero. 4
  • 5. Es.: rispondere ad un questionario quando si è affaticati, euforici, felici, stanchi, ecc. VARIABILI CHE PRODUCONO ERRORI SISTEMATICI Sono variabili che inducono errori relativamente regolari (detti errori sistematici), a volte dovuti a errori del ricercatore nel pianificare la ricerca (scelta sbagliata dei soggetti, l’uso di una scala di misura sbagliata, ecc.) La sommatoria degli errori sistematici, date infinite misurazioni, non tende a zero. Es.: una bilancia tarata male. COSA SONO I DATI In genere, i prodotti dell’attività di misurazione sono detti dati e, in particolare (anche se con qualche eccezione): • il prodotto dell’attività di misurazione di variabili quantitative è un punteggio; • il prodotto dell’attività di misurazione di variabili qualitative è una frequenza. I dati vengono organizzati in matrici di dati o matrici Casi X Variabili, in cui i casi sono rappresentati in riga e le variabili in colonna in modo tale che in ogni cella c’è un’informazione sul caso. Es., Variabile Colore degli occhi Soggetto 1 VERDI Soggetto 2 BLU MATRICE DI DATI con diversi modi di codificare i livelli delle variabili La variabile psicometrica che cos’è? Abbiamo detto che si tratta di qualsiasi tratto della realtà psicosociale. Variabili sono : lo stato emotivo, l’abilità cognitiva, il tratto caratteriale, il tratto affettivo, ecc… Il concetto di misura implica una rappresentazione numerica delle variabili. Le proprietà fisiche ( dimensioni, intensità, velocità, gravità) hanno una misura diretta. Gli attributi psicologici come le abilità cognitive , i tratti di personalità, lo stato emotivo ecc. non possono essere misurati direttamente. Per valutare quesiti specifici psicologici ci serve un campione o prototipo comportamentale quantificabile e rappresentabile dal punto di vista numerico. Il test è finalizzato a identificare il comportamento che rappresenta il patrimonio psicologico sottostante. I valori che derivano dalla performance individuale al test sono identificabili come punteggi numerici e possono rappresentare una o più delle seguenti variabili. • Numero delle risposte corrette • Tempo per completare un test • Numero di errori • Valutazione qualitativa ( per es. di un disegno). I punteggi sono quindi relazioni di riepilogo sul comportamento osservato. Chi computa il punteggio di solito lo posiziona su una scala numerica. La scala in generale ha almeno due gradi: 1-bene o superato, 2-male o non superato , se non tre: 1-.., 2- … e 3-abbastanza bene o appena superato. Raramente i livelli sono 6 o 7 perché diventa privo di significato interpretativo. I punteggi ottenuti con più di un item (=ogni domanda che costituisce la scala) producono un punteggio di riepilogo che in genere è la somma semplice dei punteggi relativi a tutti i punteggi 5
  • 6. individuali. In genere vengono poi inserite delle correzioni cosicché il punteggio finale non è solo una sommatoria. Si costituisce in questo modo un database psicologico che soddisfa l’esigenza di dati oggettivi, facilmente replicabili, ordinati in modo che l’interpretazione è attendibile e i confronti significativi. I punteggi ottenuti ai test possono essere espressi in vari modi. Non si utilizza mai un punteggio grezzo (cioè la semplice somma di risposte corrette o le risposte corrette meno le sbagliate ) perché il punteggio grezzo in sé non comunica nulla del suo valore relativo. Di solito i punteggi vengono espressi come valori di una scala basata sui punteggi grezzi realizzati attraverso una popolazione di standardizzazione ( gruppo di individui testati allo scopo di ottenere dati normativi sui test). Ogni punteggio diviene quindi una formulazione del suo valore relativo a tutti gli altri punteggi su quella scala. Nella maggior parte degli ambienti neuropsicologici la maggior parte della valutazione testistica è eseguita con batterie testistiche che al loro interno prevedono punteggi dei singoli test posti sulla stessa scala e standardizzati sulla medesima popolazione in modo che si possa comparare direttamente il punteggio del test. Quindi per eseguire i confronti necessari per la valutazione di una alterazione i più diversi punteggi testali devono essere convertibili in una scala con unità identiche. Una specie di ‘lingua franca’ che consente il confronto diretto tra numerosi tipi diversi di misurazione. I dati psicometrici ricavati da un test possono avere diversi tipi di relazione con la realtà psicologica sottostante. Possiamo concepire questa relazione come deterministica, in analogia col concetto matematico di funzione. La grandezza psicologica sottostante è un OGGETTO che ‘ determina’ il valore ‘vero’ e sistematico della misura. A questo si aggiunge un errore variabile (il cui valore atteso è 0) responsabile della incongruenza delle misure ripetute, cioè della imperfetta attendibilità della misura. In alternativa possiamo concepire la realtà psicologica sottostante come un processo governato da leggi probabilistiche. In questo caso la variabilità tra le diverse prove dello stesso soggetto può dipendere dalla natura probabilistica del fenomeno (a d esempio reperimento di un nome dal lessico fonologico dopo un procedimento di ricerca). La misura deve essere sufficientemente costante e non dipendere troppo da fattori diversi dalla quantità della grandezza da valutare. È comunque inevitabile che la misura sia approssimata nel senso che se fosse possibile misurare infinite volte per la prima volta una determinata caratteristica individuale ci aspetteremmo comunque una certa variabilità tra una misurazione e l’altra. Questa variazione deve essere comunque di entità modesta se vogliamo che la misura costituisca una stima attendibile della grandezza a cui siamo interessati. Gli errori di misurazione possono essere di tipo personale: il loro valore atteso (cioè la loro media ideale) è diverso da zero per lo stesso operatore, mentre tende a zero per operatori diversi; un test è obiettivo nella misura in cui non risente di questo tipo di errori. Gli errori variabili hanno valore atteso che tende a zero per qualsiasi osservatore e per qualsiasi soggetto. Gli errori variabili sono quindi il risultato di molti eventi casuali imprevedibili e che agiscono in diverse direzioni. La neuropsicologia classica ha elaborato a proposito degli errori variabili una teoria sul rapporto tra attendibilità del test, variabilità dei punteggi tra diversi soggetti e limiti di confidenza del punteggio vero del test per il singolo soggetto. 6
  • 7. Per costruire un test ci si può fondare su due alternative. Fino agli anni cinquanta/sessanta ci si basava su una sola ipotesi, chiamata teoria classica. Essa si fonda su assiomi, formule e prescrizioni che permettono una interpretazione sufficientemente forte e completa dei dati rilevati. Questa teoria si fonda su tre assiomi (Heller 1974). 1-Assioma dell’esistenza: a ogni valore osservato corrisponde un valore effettivo, cioè una caratteristica individuale ben precisa che si reputa essere costante. Il valore misurato X è però la somma del vero valore T e dell’errore E. Il valore osservato infatti è sempre il risultato di un riscontro legato al caso: quanto più attenti sono i procedimenti di misurazione tanto più determinato dal caso sarà l’errore. Un errore determinato dal caso può in misurazioni successive rivelare valori talvolta appena al di sopra , talora appena al di sotto del valore vero. Nella media i valori si annullano e pertanto si esplicita la necessità del secondo assioma ovvero: 2- assioma degli errori: l’errore durante una misurazione è una variabile casuale per la quale vale: ‘ la sommatoria ovvero la media aritmetica dei valori degli errori dà il valore zero’.Quindi l’errore di misurazione non è correlato al test vero e anche gli errori di misurazione di test diversi non sono correlati. 3-Con l’assioma della correlazione si intende che il valore osservato è composto dall’addizione di valore vero ed errore. Questo presuppone che il vero valore , l’errore e il valore osservato siano misurabili dalla stessa unità di misura. Da questi assiomi sono state dedotte formule, regole e prescrizioni per i criteri di validazione dell’obiettività, dell’affidabilità e della validità. Il punto debole della teoria classica è però la quantificazione degli errori eseguiti durante la rilevazione e di conseguenza è stata definita la teoria degli errori di misurazione. Sebbene la maggior parte dei test di utilità pratica sono stati costruiti sugli assiomi del modello classico e i risultati relativi sono considerati attendibili, recentemente sono state evidenziate una serie di contraddizioni tali da costituire motivi validi alla costruzione di modelli alternativi. TEORIE PROBABILISTICHE Queste vanno sotto la dicitura di ‘teorie per test nuovi’ o ‘probabilistici’ (Kubinger 1992). Queste teorie nuove sono state appunto messe in cantiere per sopperire ai ‘vizi di forma’ di cui soffre la teoria classica: la teoria classica presuppone una dipendenza dalla popolazione e l’invarianza. Tutte le stime degli errori devono essere basate secondo la teoria classica sulla valutazione della popolazione e ne sono quindi dipendenti. La teoria classica, come abbiamo detto riduce i valori latenti a valori valutabili (la variabile osservata X è uguale al vero valore T al quale si somma la componente di errore). I modelli probabilistici invece deducono con una certa probabilità, - dal comportamento osservato le caratteristriche che non sono osservabili (latent try theory). - la risoluzione o la risposta ad un item (funzione logistica) - test orientati a criterio ( modello binomiale) - risposta indipendente dalla campionatura ( modello logistico-lineare) Tutti i modelli probabilistici hanno comunque contraddizioni e imprecisioni e godono ad oggi di scarsa applicazione clinica. IL CAMPIONAMENTO Il problema del campionamento è fondamentale. E’ necessario infatti stabilire il numero di soggetti necessari per condurre un esperimento e le modalità di reclutamento dei soggetti perché essi siano realmente rappresentativi della popolazione a cui si vogliono estendere inferenzialmente le misure effettuate su un campione.La rappresentatività quantitativa èn l’esigenza che – tra i valori estremi osservati nel campione sia compreso con un rischio misurato alfa – almeno una percentuale p della popolazione. Selezione dei soggetti 7
  • 8. Distinzioni: a) Popolazioni (finite e infinite) e campione b) Popolazione bersaglio ( target) e popolazione accessibile c) Campione casuale e campione tramite stratificazione e campione ad hoc Si basano sul concetto di campione rappresentativo. RAPPRESENTATIVITA’: Per generalizzare i risultati da un campione ad una popolazione, il campione deve essere rappresentativo della popolazione. Cosa significa “ rappresentativo” ? Significa che il campione deve riflettere adeguatamente le caratteristiche della popolazione. In altri termini:le caratteristiche della popolazione ( sesso, età, intelligenza, classi sociali, atteggiamenti, affiliazioni politiche, religione, etc. ) devono essere presenti nel campione nelle stesse proporzioni presenti nella popolazione. Ci sono vari modi di campionamento: 1.Campionamento casuale: Un campione si dice casuale quando ogni soggetto della popolazione ha la stessa probabilità di essere scelto per far parte del campione.a) con ripetizione o reinserimento b) senza ripetizione 2. Campionamento casuale stratificato:Un campione è stratificato quando la popolazione viene suddivisa in tante parti, dette strati, sulla base delle variabili considerate critiche per i soggetti, e da ognuna di queste parti viene compiuta un’estrazione casuale. Le variabili critiche per i soggetti sono, ovviamente, le variabili che si suppone influenzino la VD(variabile dipendente) .Possono essere prese in considerazione più variabili critiche contemporaneamente. 3. Campionamento ad hoc:Si dice campione ad hoc quel campione formato da soggetti facilmente accessibili e disponibili a partecipare alla ricerca e, quindi, non estratti casualmente da alcuna popolazione. Si può generalizzare solo (1) con cautela e con riserva e (2) a persone che hanno le stesse caratteristiche del campione. Altra caratteristica è l’esigenza di avere un’adeguata protezione ed una sufficiente potenza nell’analisi statistica. Si tratta di valutare e controllare la potenza dell’esperimento, cioè della misura in cui si è protetti dagli errori di mancata individuazione nel campione di differenze presenti nella popolazione. Questa operazione si farà utilizzando calcoli a priori con modalità differenti che si tratti di gruppi con la stessa varianza o con varianza differente. Gli studi poi che prevedono diversi gruppi sperimentali necessitano di confrontare variabili per cui essi sono diversi. Questo obbliga all’uso di campioni molto consistenti e di tecniche statistiche particolari. Negli studi di popolazioni di cerebrolesi bisogna anche scegliere quali soggetti includere, sia mediante raccolta di una serie continua di soggetti che mediante una omogeneità della fonte di provenienza. Altro problema del campionamento riguarda gli studi evolutivi ( miglioramento e peggioramento da un dato baseline) . Questo problema non trova unica soluzione. Di sicuro costringe a selezioni della popolazione e alla manipolazione dei dati tale che essi perdono la caratteristica di generalità. Altro problema ancora che si pone al ricercatore clinico è il confronto tra popolazioni diverse per gravità (dx e sx). In tutti i casi in genere poi, si affianca un gruppo di controllo . Tali gruppi possono essere costituiti sia da soggetti normali che da pazienti di altro tipo. LE SCALE Il modo più serio di affrontare il problema delle scale è ritenerle quantificazioni il più precise possibili di parametri clinici. La elaborazione e la quantificazione di dati biologici si completa su quattro piani differenti: -sul piano della attività biologica (dati di laboratorio ..) -Sul piano delle manifestazioni cliniche (severità di paresi…) 8
  • 9. -Sul piano delle possibilità funzionali -Sul piano dell’influenza sulla qualità della vita. - Questo modello è stato proposto dalla Organizzazione Mondiale della Sanità può essere preso come punto di riferimento. Esso prevede quattro livelli 1- pathology: si riferisce alla lesione ovvero al cattivo funzionamento di un organo o di un sistema di organi e rappresenta il punto di maggior interesse per l’assistenza. 2-impairment: sono le conseguenze neurofisiologiche del cattivo funzionamento di un organo, rappresenta quindi i sintomi visibili. Non sempre però il danno si presenta con sintomi visibili ( un infarto cerebrale non si manifesta sempre con un ictus). 3- disability: intende la conseguenza di un impairment cioè di una compromissione cioè la limitazione o l’incapacità da parte del soggetto di svolgere determinati compiti. Il comportamento del paziente è quindi alterato, influenzato anche dall’ambiente e da fattori psicologici. 4- Handicap identifica le conseguenze sociali della malattia. Descrive la perdita di libertà subita dal paziente dopo una malattia. Nelle prime fasi di una malattia finchè si presume reversibile l’attenzione si concentra sul pz e sulla patologia. Successivamente prendono il sopravvento la disabilità e l’handicap . Se prima al centro era la persona successivamente sarà l’ambiente e il rapporto con l’ambiente a prevalere. Le scale possono essere semplici o complesse, monodimensionali o pluridimensionali. Alcuni punteggi considerano più la patologia d’organo che piuttosto che la disabilità o l’handicap del paziente. Altri sistemi cercano di unire più piani di valutazione in un unico punteggio ma ciò in genere è più dannoso che altro. Alcune scale descrivo un unico sintomo o deficit ( ad esempio la scala di spasticità, del tremore ecc.), Le scale cognitive esprimono sempre un quadro sintomatologico. Ci sono le scale poi che sommano più incapacità a costituire le ‘daily living’ (attività quotidiane) o ancora insufficienze globali (esaminare più funzioni), oppure valutare l’handicap di un singolo paziente o la qualità della vita. Ci sono poi le scale di autovalutazione ( in genere di disturbi psichiatrici, ansia ecc..). Infine le scale che misura lo capacità di interazione con la società ( integrazione). La maggior parte dei sistemi complessi si basano su principi additivi: si compongono di subscore attraverso i quali si descrive un singolo sintomo utilizzando una categoria. Ad ogni categoria corrisponde un punteggio le cui somme danno il valore globale. L’elaborazione del punteggio globale ha però senso nella valutazione globale della severità di una patologia ma non esprime il grado di limitazione del soggetto. ( ad es. nelle scale per Sclerosi Multipla non si possono considerare alla stessa stregua i punteggi che si riferiscono a sintomi sensitivi piuttosto che motori o atassici). Durante la categorizzazione i pazienti vengono suddivisi in due o più gruppi. Se ci si immagina la caratteristica da rilevare su una linea continua l’impiego di una caratterizzazione significa una maggiore evidenza delle differenze a i poli e una minore diversità al centro. La categorizzazione è una costrizione della realtà, la distorce. La valutazione e le elaborazioni sono necessarie da un punto di vista scientifico oltre che diagnostico, terapeutico o prognostico , richiedono elevata obiettività e confrontabilità ma al singolo interessano quasi solo le proprie impressioni ed emozioni riguardo la severità della propria malattia. Per es. l’impedimento funzionale alla mano dominante è un danno maggiore per chi svolge come attività per es. il pittore. La sofferenza e il dolore non possono essere rilevati da nessun sistema. 9
  • 10. TIPI DI SCALE scala nominale: Rappresenta caratteristiche qualitative Considera la distribuzione nelle categorie rappresentate dalla scala Le categorie devono essere definite con esattezza Ogni esaminato deve poter essere ascritto ad una sola categoria Le categorie devono potersi escludere a vicenda Devono essere esaustive L’unica operazione matematica permessa è la comparazione uguale a disuguale a Essa prevede unicamente etichette e nomi come categorie. Un esempio di scala nominale sono i numeri sulle maglie dei giocatori. Uno psichiatra può suddividere pazienti schizofrenici nelle categorie: 1=ebefrenici; 2=simplex; 3=catatonici; 4=paranoidei, sta usando quindi una scala N. ma se lo psichiatra vuole utilizzare una scala che separi malati da non-malati non potrà avvalersi di questo tipo di scala. Nella scala ordinale •Ad ogni espressione vengono assegnate cifre che le mettono in rapporto grande-piccolo •Le espressioni sono correlate tra loro in rapporto monotono Sono ammesse operazioni come: uguale/disuguale piccolo/grande il criterio è quantitativo, crescente-> decrescente, in queste scale non abbiamo la sicurezza che a misurazioni determinate corrispondano grandezze determinate. Se due gruppi misurati con una scala ordinale hanno la stessa media aritmetica in una misura –essendo la scala dotata di proprietà ordinali- è possibile che non siano uguali le medie della grandezza sorgente, ne deriva che tutte le operazioni che si basano sulla media aritmetica non saranno lecite. Sono scale utilizzate nell’ambito delle scienze sociali a misurare: aggressività, intelligenza, condizione sociale Es: VARIABILE ANALIZZATA: capacità uditiva di una popolazione di bambini; SCALA USATA: divisa nelle seguenti classi: -molto buona; - buona; - media; - non buona - pessima Possiamo trasformare qs classificazione numeri 1---5 o 10----10.000, cioè possiamo solo stabilire rapporti di tipo monotono, cioè espresse sempre da una funzione crescente-<->decrescente. Se le proprietà delle misure sono solo ordinali non si possono applicare tutte le analisi statistiche ma solo le analisi non parametriche o le analisi di tabelle di frequenza. Si possono calcolare grandezze come : mediana, moda, rango. Sono consentite operazioni come = /= e piccolo->grande nella scala intervallare: •L’intervallo tra due valori in sequenza è ben definito e sempre uguale • Sono ammesse operazioni come: Confronto uguale/disuguale Confronto piccolo/grande 10
  • 11. Confronto uguaglianza/disuguaglianza di differenze (addizioni-sottrazioni) Tutte le trasformazioni del tipo y=a+bx Tutte le trasformazioni del tipo f’(a)=uf(a) + v Ad uguali intervalli tra le misure corrispondono uguali intervalli nelle grandezze. Per queste quantità sono autorizzate tutte le analisi statistiche che si basano sulle medie aritmetiche e che comprendono l’analisi della varianza. Si possono calcolare media e deviazione standard o il suo quadrato, cioè la varianza(sommatoria di tutte le deviaz. dalla media aritmetica al quadrato diviso il n° di osservazioni) che ha il significato di misurare la dispersione intorno alla media. Il limite di queste scale è che manca la corrispondenza tra l’origine della scala di misurazione (0) e la vera e propria assenza della grandezza. Questo limite ci impedisce di dire che se una misura è doppia di un’altra anche le grandezze corrispondenti sono l’una doppia dell’altra. In queste scale sono accettabili tutti i tipi di trasformazione lineare esprimibili come y= a+bx , ma non quelle logaritmiche o esponenziali. scala a rapporto •Il punto 0 della scala è predefinito Consente l’esecuzione delle seguenti operazioni matematiche: Confronto uguale/disuguale Confronto piccolo/grande Confronto uguaglianza/disuguaglianza di differenze (addizioni-sottrazioni) Confronto uguaglianza/disuguaglianza di quozienti -Nelle scienze sociali può risultare difficile scegliere il livello della scala da utilizzare. Si presume che agli estremi di una scala a intervalli le distanze tra le classi non presentino più l’equidistanza richiesta , ovvero che valga solo il livello della scala ordinale. Si potrebbe quindi ridurre il livello delle scale a scale ordinali , correndo il rischio di sottovalutare i risultati, in quanto la parte centrale delle scale mantengono una sequenza ad intervalli. (QI) I test psicometrici sono considerati convenzionalmente appartenere alle scale ordinali ? Alle scale intervallari? -Secondo la teoria rappresentativa della misurazione individuare le caratteristiche di scala è fondamentale per individuare operazioni lecite. Questa impostazione è stata criticata ampiamente e molti autori hanno concluso che in realtà i risultati delle misurazioni verrebbero a formare delle entità autonome dalla grandezza sorgente e quindi la qualità del rapporto tra grandezza e misura non vincola il tipo dell’elaborazione statistica. Del resto in tema di test psicologici è difficile dire se la scala abbia in effetti proprietà intervallari. Un giudizio orientativo può basarsi su diversi fattori, tra cui va esaminato come è costruito un test. Se il test consiste nella ripetizione di quesiti diversi, ciascuno dei quali ha la stessa difficoltà , è intuitivo concludere che debba godere della proprietà intervallare. Nella maggior parte dei casi tuttavia il test è costituito da quesiti di difficoltà crescente, o da blocchi di difficoltà crescente, ciascuno dei quali contiene un certo numero di quesiti aventi un livello di difficoltà simile. Per questi test non solo non è garantita la proprietà intervallare ma- dal punto di vista formale- neppure quella ordinale. Questi problemi sono solo in parte risolvibili utilizzando dei parametri di stima di intervallarità. In conclusione le analisi statistiche parametriche possono essere usate con cognizione di causa anche per i test psicometrici. Un altro problema importante che si pone nella pratica neuropsicologica è che esiste un limite insito nelle prove dato dal fatto che un soggetto non può andare al di là di un certo punteggio massimo e minimo , cioè siamo in presenza di scale chiuse. La conseguenza delle scale chiuse è che parte del campione viene appiattito ai due estremi della scala. 11
  • 12. Un altro limite importante è la necessità del confronto tra punteggi di prove diverse per cui occorre standardizzare le misure. LE DISTRIBUZIONI Prendiamo un campione di 100 soggetti, considerati per la variabile: ALTEZZA Misuriamo tutte le altezze e poi ne calcoliamo il valore medio X1 e la distribuzione dei valori intorno alla x, prendiamo poi un campione C2 e anche di esso ricaviamo il valore medio e la distribuzione dei valori intorno a X2. STATISTICAMENTE X1 e X2 sono 2 diverse realizzazioni di una variabile casuale X. Essendo la variabile altezza una misura costante non ci interesserà sapere quale è la probabilità di registrare una precisa realizzazione, ma piuttosto ci interesserà sapere il valore da noi riscontrato in quale intervallo cade, cioè a che punto è di una distribuzione gaussiana. Si parla cioè di funzione di densità. Quando vengono considerate variabili casuali discrete, come il QI, si parla di funzione di probabilità. Se i campioni sono sufficientemente grandi la frequenza relativa di una classe converge con la probabilità con la quale una determinata realizzazione della variabile casuale compare. La distribuzione normale è un concetto teorico che ci serve per le elaborazioni statistiche. Se abbiamo a che fare con un campione sufficientemente grande ci si avvicinerà a una distribuzione normale e quindi possiamo usare –per misurare- della analisi statistica parametrica. Così alla domanda quale significato ha il valore medio di un test d’intelligenza la risposta è: La distribuzione di una variabile casuale X i si avvicina con l’aumento delle osservazioni n alla distribuzione normale, indipendentemente dalla distribuzione della variabile originale xi Così le caratteristiche della distribuzione normale sono: Forma a campana Simmetria rispetto al valore medio Moda, mediana e media aritmetica coincidono Essendo le misure infinite il valore medio non si può calcolare, ma si calcola il valore medio atteso mu La distribuzione si avvicina asintoticamente all’asse x Tra i valori X punto di flesso giacciono i 2/3 dei valori corrispondenti a ±1σ Ne consegue che I parametri utili sono mu e sigma . Molte distribuzioni normali non hanno forma a campana ma sono curve spostate a sinistra, si tratta di quelli che hanno dei valori minimi , come i punteggi grezzi dei test psicologici. In questi casi si procede rappresentando graficamente la curva non distribuita normalmente e calcolandone alcuni parametri, come angolatura della distribuzione, apice troppo ampio (che significa eccesso di distribuzione) e l’irregolarità della distribuzione. A queste si applicano poi delle trasformazioni in modo da portarle a ‘normali secondarie’. Le distribuzioni limitate a sx dallo 0 vengono –attraverso logaritmi- n ormalizzate. La curva di distribuzione normale viene poi trasformata in ‘normale standard’ , attraverso la trasformazione in punti zeta. -Un’altra distribuzione molto usata , anche se non presente in natura, è la chi quadro, per la verifica di tabelle a 4 o più entrate. La sua forma di distribuzione dipende dai gradi di libertà che si calcolano sul numero di variabili meno uno. Più gradi di libertà ci sono più la curva tende ad essere simmetrica. Esempi di variabili così definite sono sesso, stato civile, livello di istruzione. L’applicazione pratica riguarda il saggiare se due criteri di classificazione applicati allo stesso insieme di dati siano indipendenti Un altro utile parametro è l’analisi di correlazione tra caratteristiche differenti. 12
  • 13. Un esempio di correlazione precisa è quella tra lato e superficie del quadrato. Per le scienze sociali non si ha mai questa correlazione . Infatti il risultato di due test eseguiti in due giorni successivi può essere diverso. Questo può dipendere da molti fattori, non tanto dal livello di intelligenza. Il coefficiente di correlazione r darà l’estensione della polverizzazione dei valori intorno ad una retta di regressione. Il coefficiente r varia da –1 ( cioè al crescere di x decresce y) a +1( al crescere di x cresce anche y). La necessità più recente in neuropsicologia è stabilire la effettiva necessità ed utilità degli studi di gruppo se la ricerca mira ad identificare e definire le fasi dell’elaborazione cognitiva necessarie per l’esecuzione di un compito, quali siano compromesse e che relazioni esistano tra di esse. Si è così introdotto lo studio dei casi singoli. Anche questi studi tuttavia devono ricorrere ad una valutazione quantitativa rigorosa dei dati. Le tecniche più interessanti riguardano i seguenti campi di ricerca:…… i metodi statistici (stocastici) utilizzati sono in questo caso estremamente raffinati e particolari. Una volta raccolti i dati sperimentali o clinici, si pone il problema della loro elaborazione. L’introduzione del metodo di statistica inferenziale ha costituito un passo decisivo in ambito neuropsicologico perché ha permesso di fondare su basi solide e controllate le conclusioni tratte dal lavoro sperimentale. Il lavoro diagnostico –pure- è aiutato dalla statistica perché ha permesso di costruire delle soglie o dei criteri quantitativi per la valutazione dei soggetti nei vari gruppi. La esecuzione dei calcoli , la comprensione e traduzione in pratica delle formule matematiche costituisce il primo step del processo elaborativo ed è supportato dalla numerosa quantità di programmi anche sofisticati di analisi statistica peraltro ormai tutta computerizzata.(………..). La difficoltà prevalente oggi è la necessità di comprendere il significato delle metodiche disponibili e della scelta della metodica più appropriata. Esistono librerie di programmi statisctici, come la Biomedical Programs(BMDP) o la Statistical Package for the Social Sciences(SPSS) o ancora la Statistical analysis System (SAS). Anche la statistica è una scienza in evoluzione e perciò è sempre in corso una revisione critica dei metodi di analisi statistica , grazie anche all’apporto delle nuove tecniche di simulazione. Inoltre sta crescendo la possibilità di valutare la potenza dell’analisi statistica onde evitare di commettere errori di secondo tipo ( considerare 2 medie uguali mentre sono diverse). A cosa servono •Classificazioni? •Stadiazioni? •Criteri diagnostici? •Scale? •Punteggi? Alcuni vantaggi sono di immediato ritorno: standardizzare le definizioni, standardizzare la lingua e l’utilizzo della parola come base di comunicazione, confrontabilità dei risultati. Dal punto di vista pratico senza chiare stadiazioni non si possono neanche dare terapie o per valutare fasi riabilitatorie non si può prescindere dalla scala di giudizio. I criteri diagnostici e la stadiazione sono indispensabili per definire la caratterizzazione di una situazione patologica e la sua dimensione temporale. Entrambi questi elementi sono vincolati al concetto di scala e punteggio in quanto attraverso scale e sistemi di punteggio si cerca di evidenziare la severità dei deficit clinici . Quale vantaggio comportano scale e punteggi correlate agli eventi clinici?. Questi sistemi permettono di trasformare in numero le caratteristiche cliniche e il numero è un ordine ben preciso che esprime delle categorie che devono essere analizzate mediante rigorose analisi statistiche a tal punto che è stato coniato il termine di BIOMETRIA per questo ordine di problemi , o CLINIMETRIA. 13
  • 14. Le scale servono quindi a quantificare e a classificare. La elaborazione e la quantificazione dei dati biologici si completa su quattro piani differenti: 1- sul piano dell’attività biologica ( dati di laboratorio , riscontri strumentali) 2- sul piano delle manifestazioni cliniche ( severità di paresi , atassia ecc.) 3- sul piano delle possibilità funzionali del paziente 4- sul piano dell’influenza della qualità di vita. Scopo della psicometria: Compito del lavoro clinico è misurare l’abilità cognitiva e le caratteristiche cognitive. Questa misura facilita la capacità decisionale correlando le performance di un individuo ad un appropriato gruppo di riferimento o scoprendo una modificazione del comportamento individuale nel tempo. La natura del processo decisionale è specifica in determinate situazioni e include una vasta gamma di decisioni: Identificare le difficoltà cognitive Scegliere una appropriata terapia riabilitativa Valutare l’autonomia Valutare l’abilità professionale Differenziare le patologie che colpiscono le funzioni cognitive Determinare la rapidità di miglioramento o di peggioramento Stabilire una prognosi Scopo Prognostico/predittivo L’utente chiede al suo strumento di valutare qual è il livello dell’abilità che il test misura, e il livello in questo caso è interessante per sé in quanto l’esame viene fatto per prevedere quale sarà la capacità di un individuo di svolgere una data mansione.In questo caso non ha quindi interesse quali siano i fattori che hanno determinato il valore osservato, poiché quest’ultimo serve per prevedere altre variabili. Scopo diagnostico: A livello diagnostico e di ricerca ciò che interessa è invece la costruzione di un modello dei fattori che possono influenzare il risultato. Scopo di ricerca: In ambito di ricerca lo sperimentatore vorrà controllare se i fattori che secondo un modello “a priori” si suppongono importanti siano effettivamente rilevanti dopo il vaglio dell’esperimento che viene condotto su molte osservazioni. Ciò sarà ottenuto stimando con metodi statistici qual è la grandezza di alcuni parametri che costituiscono i termini del modello e nel decidere quali di essi siano sufficientemente rilevanti perché il loro ruolo venga effettivamente confermato. Si tratta quindi di ricercare quali sono i fattori che stanno alla base di un comportamento e verificare se includere tra questi la malattia (atteggiamento diagnostico). Altra applicazione in ricerca sarà valutare l’efficacia di un trattamento sia esso psicologico o farmacologico. Se si parte da presupposti sbagliati l’affermazione non ha più valore. Uno studio può fallire per colpa di una classificazione malconcepita, per l’utilizzo di criteri diagnostici non sufficienti o sistemi di scale e punteggi scelti male. Il sistema di punteggio per esempio potrebbe essere specifico e anche sufficientemente sensibile ma per esempio assolutamente irrilevante per il quesito da indagare. CRITERI DI VALIDAZIONE 14
  • 15. Per minimizzare gli errori o almeno cercare di valutare le condizioni in modo più adeguato, le metodiche diagnostiche devono sottostare a una serie di principi che possono essere compresi nel termine di criteri di validazione (Lienert 1969) . Obiettività: o indipendenza dal clinico- i dati raccolti secondo una metodica psicometrica obiettiva devono essere applicati, valutati ed interpretati indipendentemente dall’esperienza dell’esaminatore. Ovvero- chiunque utilizza la tecnica deve raggiungere il medesimo risultato al termine della valutazione della stessa persona. Affidabilità: - o reliability- identifica la correttezza della misurazione di una caratteristica da valutare. Se si ripete l’applicazione di un particolare test allo stesso paziente a distanza di qualche tempo (retest) ci si deve attendere un risultato uguale, mantenute inalterate tutte le altre condizioni. Validità:una metodica è valida quando in effetti misura la caratteristica in osservazione. Reliability (Attendibilità/affidabilità o Riproducibilità) - Misura l'accordo tra più osservatori nel rilevare lo stesso fenomeno. La riproducibilità entro osservatori si riferisce all'accordo tra misure dello stesso fenomeno effettuato dallo stesso osservatore in tempi diversi (QA). Se un individuo riceve ad un test una volta alti punteggi e una volta bassi punteggi non si può fare nessuna inferenza sulla capacità che il test esamina.. Fatto acquisito che il punteggio del test riflette (X=T+E) la formula già enunciata possiamo dire che la elevata reliability ha il significato di permettici di concludere che la variabilità del punteggio ottenuto in successive prove per lo stesso soggetto è da attribuirsi maggiormente al punteggio ‘vero’. Allora il coefficiente di reliability può essere espresso come il rapporto tra la varianza dei punteggi veri e la varianza del punteggio totale. Rxx= σ 2 T σ2 Τ + σ 2 Ε La reliability è stata determinata attraverso varie modalità: 1.Il metodo test-retes= correlazione tra il punteggio al primo test e ai successivi 2.Applicazione di test alternativi 3.La separazione ( split-half) in due tronconi del test 4.Correlazione interna tra i subitem Da una di queste modalità con cui si stima la affidabilità si ricava l’errore standard di misurazione. Validity (Validità) - Fedeltà con cui uno strumento misura ciò che si propone di misurare.Viene messa in relazione un'entità di natura empirica (lo strumento) con un'entità di natura teorica (il costrutto teorico, un concetto). Essendo una relazione tra entità di natura differente, è difficile una sua stima. Ecco perchè la validità è stata spesso scomposta: validità di contenuto, di criterio, ecc. Secondo alcuni autori la validità può essere stimata a patto che il costrutto teorico - del quale lo strumento dovrebbe essere un indicatore valido - si tratti come una variabile latente (una variabile sottostante che influisce su un numero limitato di variabili osservate). La validità concorrente comporta il confronto fra i risultati del test in costruzione con i dati di un criterio esterno (esempio: giudizi intuitivi, risultati di altri test, dati bibliografici acquisiti). La validità predittiva comporta un intervallo di attesa per confermare con i fatti le implicazioni prognostiche di una data diagnosi ricavata dal test di prova. In base ai risultati ottenuti singole parti del questionario possono venir modificate. 15
  • 16. La validità non è misurata statisticamente, riflette un dato clinico, un giudizio formulato in accordo tra vari specialisti della materia, in relazione alla descrizione dettagliata delle caratteristiche del test.. La validità stabilisce le relazioni con gli aspetti teoretici sottostanti ad un test.questo si stabilisce in base alla alta correlazione tra il test in esame e altri test. Così la validità è sia di contenuto ( caratteristiche degli item) che di costruzione. Terzo elemento che contribuisce alla validità di un test è la sua utilità. Ai criteri maggiori si aggiungono i seguenti criteri secondari: Standardizzazione: sono utili quei sistemi in grado di fornire un valido punto di riferimento per la classificazione dei dati raccolti. I dati grezzi devono essere riconducibili a precisi valori standard. La standardizzazione può riguardare: -la popolazione generale -particolari gruppi sociali -campioni identificabili a seconda del motivo e dell’estensione dell’applicazione. -Confrontabilità: la disponibilità di uno o più test paralleli o di test simili permette un controllo della validità e dell’affidabilità. -Economia: metodiche economiche richiedono un breve tempo di esecuzione , necessitano di poco materiale di consumo , devono essere di facile esecuzione e valutazione. -Utilità: l’evidente esigenza che una metodica diagnostica debba essere utile per fini pratici implica che nessun altro strumento a disposizione sia applicabile in quelle condizioni. -Inoltre sono importanti, soprattutto per le indagini epidemiologiche, altri criteri come: semplicità di esecuzione,- accettabilità ,ovvero nessuna obiezione di tipo etico, - ripetitibilità e correttezza, ovvero l’utilizzo di parametri effettivamente indicatori della condizione da valutare. SENSIBILITA’ E SPECIFICITA’ Sensitivity (Sensibilità) - Nella costruzione di una scala per misurare fenomeni clinici questa quantità riguarda come sembra essere appropriata o "sensibile" la scala proposta. I giudizi qualitativi impiegati nella valutazione della sensibilità di una scala comprendono: *Quanto uno strumento "reagisce" a variazioni anche piccole del costrutto latente che deve rilevare? *La scala è comprensibile, semplice, vi sono comprese tutte le variabili più importanti? *Quanto è buona la qualità dei dati dai quali sono derivati i punteggi? La maggior parte dei test in medicina sono imperfetti nel senso che occasionalmente gli individui sani sono classificabili erroneamente come malati , mentre altri individui realmente malati non sono riconosciuti come tali. Ecco allora che si può calcolare la probabilità che un test dia una risposta positiva o negativa. test + 1-β β realtà - α 1−α 16
  • 17. Gli individui nell’angolo superiore destro di questa tabella 2x2 è detto falso negativo; β è la probabilità di un falso negativo e 1- β è detta sensibilità del test. Gli individui che rientrano nell’angolo inferiore sinistro sono detti falsi positivi; α è la probabilità di un falso positivo e 1- α è la specificità del test. Prendiamo quindi un campione della nostra popolazione indagata tramite un test e poniamo che riscontriamo le seguenti frequenze: Test positivo al test negativo al test + - malato + a c Realtà non malato - b d a= pazienti malati e riconosciuti dal test (veri positivi) b= pazienti non malati ma riconosciuti malati dal test (falsi positivi) c= pazienti malati ma non riconosciuti dal test (falsi negativi) d= pazienti non malati e come tali riconosciuti dal test (veri negativi) sensibilità= a/(a+c) x 100 specificità= b/(b+d) x 100 La probabilità di un falso negativo potrebbe essere stimata da β=b/(a+b) e la probabilità di un falso positivo da α=c/(c+d). Test validi sono caratterizzati da specificità e sensibilità =1. Praticamente nessun test raggiunge questi valori. La maggior parte dei test richiede un bilancio tra sensibilità e specificità. Quanto maggiore è la sensibilità del test tanto minori saranno i falsi negativi ma solitamente minore è anche la specificità. Si assume implicitamente (indice di Youden) che i falsi negativi e i falsi positivi abbiano la stessa importanza. Esistono buone ragioni contro questo punto di vista. Infatti i due tipi di errore hanno conseguenze molto differenti. Ed è spesso più ragionevole attribuire un peso maggiore al falso negativo che al falso positivo. In sintesi un test per essere buono dovrebbe possedere almeno tre caratteristiche fondamentali (secondo gli psicometricisti): Validità (del contenuto, predittiva, concorrente, dei tratti), Attendibilità o costanza, Sensibilità di discriminazione. I clinici sostengono in generale che non è possibile dare valutazioni psicometriche della personalità ma solo un diagnosta intervistatore, interreagendo col soggetto, può giungere ad operare la sintesi necessaria a sviluppare il mondo soggettivo dell'intervistato (diagnosi). La corrente antropologica tende ad integrare le due prospettive, quella degli psicometristi e quella dei clinici. In conclusione si tende a considerare due forme di validità, di attendibilità, di sensibilità nettamente differenziate tra loro: quella metrica e quella clinica. TEST SPERIMENTALI E TEST STANDARD I test sperimentali si classificano in 4 livelli: 17
  • 18. LIVELLO I: il test non è mai stato rivisto o pubblicato . È utilizzato solo da chi lo ha prodotto. I dati normativi sono vaghi o non esistenti. LIVELLO II: Il test non è mai stato pubblicato ma è stato rivisto e utilizzato da gruppi di lavoro con ricerche multicentriche. Esistono dati normativi sparsi. LIVELLO III: Il test è stato ampiamente distribuito a soggetti interessati per uso sperimentale. Non esistono studi pubblicati con questo test. Sono distonibili dati normativi preliminari, la ‘reliability’ e la validità. LIVELLO IV: Il test è stato descritto su riviste e incluso in studi che comprendono altri test standardizzato. Sono disponibili i dati normativi preliminari e sono contemplate la reliability e la validità. In genere in questa fase il test non è formalmente pubblicato ma è disponibile ad essere distribuito dall’autore. Un test si definisce standard : LIVELLO I: il test è facilmente disponiobile alla comunità scientifca ed adeguatamente normalizzato. LIVELLO II: il materiale testistico è standardizzato ed è dotato di un manuale di punteggio . Sono disponibili la reliability e la validità. LIVELLO III: le ricerche che usano test vengono riviste e pubblicate in ambiente specializzato. LIVELLO IV: il test è stato replicato da autori doversi da quelli che l’hanno sperimentato. Condotta una misurazione si necessita successivamente di valutare la distribuzione dei valori ottenuti. Le distribuzioni sono essenzialmente classificabili come ; normale normale standard Chi quadrato Una volta raccolti i dati sperimentali o clinici si pone il problema della loro elaborazione. Gli approcci statistici più usati sono: • Confronto tra medie: gli strumento più usati in questo quesito sono – t di Student (per confronto tra 2 medie) , l’analisi della varianza ( per più di 2 medie);: il test di Student non è soddisfacente soprattutto perché in genere i gruppi al confronto hanno numerosità diverse e varianza diversa. Anche per l’analisi della varianza è fondamentale che le varianze siano uguali. . Esiste una certa diffidenza verso questo sistema: Esse sono: 1) i dubbi circa il fatto che tutte le scale utilizzate abbiano la stessa proprietà; 2) la necessità di verificare le condizioni proprie della procedura statistica ( numerosità, uguaglianza di varianza ecc.). • modelli lineari: sono equazioni che descrivono la struttura del modello con cui s’intende interpretare le osservazioni: se la distribuzione è di tipo normale si parla di analisi della regressione multipla; se le caratteristiche sono discrete si applica l’analisi della varianza; se alcune caratteristiche sono continue e altre discrete si parla di analisi della covarianza. Il modello lineare è la base spesso per aggiustare i punteggi dei test tenendo conto delle caratteristiche per esempio di età e scolarità. • L’analisi delle frequenze necessita di trasformazioni a seconda della distribuzione delle osservazioni. • Molto spesso i problemi da affrontare richiedono di lavorare con più variabili dipendenti alla volta, pertanto si utilizzano l’analisi della varianza per misure ripetute, o per l’utilizzo di più test contemporaneamente l’analisi multivariata della varianza e della covarianza. Altri elementi necessitano di altre tecniche come l’analisi fattoriale, discriminante ecc. Correlazione e regressione: 18
  • 19. L’analisi delle correlazioni tra caratteristiche differenti è possibile quando si riconosce che effettivamente due o più caratteristiche sono tra loro in relazione e quali sono le modalità di rapporto. Quanto più forti sono le correlazioni tanto meno il risultato è dipeso da fattori di disturbo. L’equazione che è necessaria alla formulazione delle previsioni sulla scorta di correlazioni stocastiche viene chiamata equazione di regressione. A secondo del livello di scala prescelto varieranno anche i coefficienti di correlazione: per scale intervallari si useranno il coeff. Di correlaz. Di Bravais-Pearson, la correlazione dei ranghi di Spearman e il coefficiente biseriale, per le scale ordinali si useranno la Spearman o la Kendall, per le scale nominali si useranno la biseriale o il coeff di contingenza. Formulazione e verifica di ipotesi: Si tratta di metodiche che servono per estendere alla popolazione generale i risultati di studi su campioni. Queste metodiche sono in grado, anche se con una certa probabilità di errore, di mettere in evidenza gli effetti diversi e non casuali di fattori che influiscono sull’indagine. Factor Analysis (Analisi fattoriale) - Una procedura che sostiene che le correlazioni o covarianze tra un certo numero di variabili osservate derivano dalla relazione tra queste variabili ed un piccolo numero di variabili sottostanti, inosservabili, latenti, conosciute di solito come fattori comuni, componenti principali (common factors). I coefficienti di regressione (che predicono il valore di una variabile data l'altra) delle variabili osservate sui fattori comuni, sono denominati factor loadings. Dalla fase iniziale, exploratory factor analysis, si arriva ad una confirmatory factor analysis. I fattori derivati inizialmente sono trasformati per rendere la loro interpretazione più semplice (factor rotation). La Varimax rotation è un metodo per attuare la factor rotation. In pratica, i dati dei protocolli del campione di soggetti scelti per la messa a punto del questionario vengono intercorrelati e con opportuni calcoli si identifica un piccolo numero di variabili (cioè di fattori) che possono giustificare la massima parte della varianza o della congruenza tra i dati omogenei all'interno del singolo soggetto e dell'intero campione. Se questi fattori risultano conformi a quelli perseguiti come obiettivo della ricerca, il questionario possiede una validità di struttura. limiti di tolleranza: La statistica serve per fornirci valutazioni sul giudizio di normalità e di patologia. In realtà si può essere interessati solo a sapere se il soggetto cade nei limiti di norma oppure può classificare il soggetto in due o più categorie alternative definite. Per stabilire i limiti di normalità si utilizzano i limiti di tolleranza della distribuzione, decidendo a priori il rischio e la percentuale di popolazione che desideriamo. Se la distribuzione è normale i limiti di tolleranza saranno parametrici, altrimenti si ricorrerà ai non parametrici. I limiti di tolleranza a cui si deve fare riferimento sono in realtà due : i limiti interni e i limiti esterni. I limiti interni ed esterni sono separati da una zona di punteggio in corrispondenza della quale il rischio di errore non è controllato da nessuna delle due decisioni RIASSUMENDO: Campionamento: Disegno sperimentale: Analisi statistica: prevede i seguenti momenti: 1- studio del modello, costruzione delle tabelle di correzione, 3- limiti di tolleranza, 4- valutazione dell’attendibilità (mediante il calcolo della reliability). 19
  • 20. LA VALUTAZIONE COGNITIVA Le scale e i test che possono essere utilizzate nella valutazione cognitiva devono far riferimento necessariamente alle strutture e alle funzioni cognitive. In atto non è disponibile una concettualizzazione univoca dell’area cognitiva e della valutazione del suo sviluppo. Basti pensare al concetto di intelligenza e al numero di teorie che su questo concetto sono state formulate: esse vanno dal - interpretazione di Spearman per il quale l’intelligenza dipende da un solo fattore (fattore G) - interpretazione di Thurstone secondo il quale l’intelligenza è composta da abilità distinte, definite ‘abilità mentali primarie’(comprensione, memoria, ragionamento….ecc..) - interpretazione di Gardner secondo il quale l’intelligenza è multipla (esisterebbero 9 forme..) fino ai più attualmente sfruttati che sono: - i modelli piagetiani attraverso cui si ricercano, a partire dai processi, i principi generali dello sviluppo (ovvero si dispone di procedure e strumenti atti a descrivere e spiegare i processi) - i modelli psicometrici in cui le differenze individuali vengono misurate sulla base dei prodotti (ovvero quantificano i livelli di performance) - le analisi componenziali ovvero riferite ai processi di elaborazione dell’informazione, codifiche e strategie (mnestiche, organizzazione delle conoscenza….) - approccio neuropsicologico ovvero studio delle specifiche funzioni cognitive che nel loro insieme determinano la capacità di ‘intelligere’. I principali aspetti della valutazione cognitiva riguardano : ◙ PERCEZIONE ◙ATTENZIONE ◙ MEMORIA ◙COORDINAZIONE VISUO-MOTORIA ◙ LINGUAGGIO ◙FUNZIONAMENTO INTELLETTIVO ◙PROBLEM SOLVING ◙POTENZIALE DI APPRENDIMENTO ◙TRANSFER COGNITIVO la percezione è il processo di acquisizione di informazioni attraverso gli organi di senso, che permette di interpretare e attribuire significato agli stimoli sensoriali. Deve perciò essere studiata nei suoi aspetti visivi, uditivi e somato-sensoriali. Il disturbo che coinvolge la percezione viene detto agnosia, distingueremo perciò, a seconda dell’organo di senso prove testistiche per : agnosia visiva percettiva agnosia tattile agnosia uditiva associativa l’attenzione è definita come la funzione mentale relativa alla focalizzazione su uno stimolo per un dato periodo: può essere - selettiva perché focalizzata su un unico stimolo o oggetto 20
  • 21. - sostenuta perché concernente un periodo di tempo necessario all’esecuzione di un compito durante il quale focalizzare l’attenzione - divisa perché prevede di prestare attenzione a più stimoli o compiti contemporaneamente - shifting ovvero necessita di essere spostata da un compito o uno stimolo all’altro la memoria ovvero la capacità di registrare, immagazzinare e recuperare le informazioni. Essa viene distinta in sottocategorie diverse che diversamente vengono considerate nel bambino e nell’adulto. Nel bambino per semplicità possiamo dire che analizziamo: -memoria immediata (dati che permangono per secondi o pochi minuti) autobiografica (la propria -memoria recente (dati che permangono da minuti a ore) storia) -memoria remota (dati che permangono per ore e giorni) conoscenze generali (dati culturali appresi) la coordinazione visuo-motoria ovvero la capacità di integrare gli aspetti percettivi visivi e quelli relativi alla motricità finalizzati al gesto produttivo, riproduttivo o imitativo. La mancata realizzazione di questa capacità dà origine alle aprassie ideativa e ideo-motoria il linguaggio ossia la competenza della comunicazione: esprimere e recepire pensieri, sentimenti, emozioni ecc, usando parole, azioni, gesti da soli o combinati ; comporta l’analisi della capacità espressiva–produttiva e recettiva negli aspetti non verbali verbali mimico-gestuali fono-articolatori ( i suoni) posturali morfo-sintattici (regole grammaticali) prossemiche semantico-lessicali (significato e parole conosciute) il funzionamento intellettivo ovvero le conoscenze, le competenze e la cosapevolezza , ovvero esprime lo stadio di pensiero e il livello di sviluppo da esso raggiunto, nelle seguenti funzioni: -orientamento spaziale (sopra-sotto, vicino/lontano ecc) -orientamento temporale ( passato, presente, futuro, durata, tempo lineare/circolare) -stadio del pensiero (dalla prospettiva piagetiana  senso-motorio (schemi di azioni semplici)  preoperatorio (schemi simbolici e nozione di funzione  operatorio concreto (in cui si analizzano le seguenti operazioni logiche:classificazione, moltiplicazione logica, seriazione, numerazione)  operatorio formale (analisi delle relazioni logiche e leggi generali) - funzioni esecutive (pianificare, organizzare, orientarsi; ammpiezza/flessibilità/velocità di apprendimento; discernimento/giudizio il problem solving ovvero la capacità di valutazione di un problema (ricerca di approcci alternativi per la risoluzione) il potenziale di apprendimento cioè l’analisi delle funzioni che non sono mature ma in fase di maturazione il transfer cognitivo ovvero la capacità di estendere a situazioni nuove acquisizioni precedenti. 21
  • 22. La valutazione di tutti questi aspetti in ambito evolutivo non può prescindere naturalmente dal metodo osservativo perché attraverso l’osservazione si può cogliere il processo di cambiamento nel momento in cui si realizza. Non di meno risulta importante appoggiare queste osservazioni alla misurazione delle abilità osservate. Per quanto riguarda gli strumenti testologici occorre segnalare che la maggior parte di quelli più accreditati provengono da contesti culturali stranieri e non tutti dispongono di adeguate standardizzazioni sulla popolazione italiana, pertanto devono essere usati con cautela ed a supporto di specifiche ipotesi derivate dall’osservazione. Gli strumenti psicometrici si dividono essenzialmente in due categorie: -scale psicometriche -batterie neuropsicologiche le scale psicometriche sono l’insieme di varie subunità espressione di competenze cognitive che danno un punteggio finale globale le batterie neuropsicologiche si basano su associazioni di test valutabili singolarmente e con punteggio ottenuto per ogni test . Segue - elenco delle scale psicometriche - elenco dei test neuropsicologici VALUTAZIONE COGNITIVA DEL BAMBINO CON RITARDO MENTALE La valutazione del RM è strettamente correlata con la definizione di RM stesso. Le definizioni più recenti spostano significativamente l’asse della valutazione verso gli aspetti dell’adattamento e delle implicazioni ecologiche che l’assessment deve assumere. Pertanto le componenti cognitive vanno analizzate in stretta relazione con le capacità e i deficit implicati nell’adattamento sociale. Per definire i livelli di adattamento vengono prese in considerazione le seguenti 10 aree: comunicazione, cura di sé, abilità domestiche, abilità sosciali, uso delle risorse della comunità, autodeterminazione, abilità nel provvedere alla propria salute e sicurezza, capacità di funzionamento nel contesto scolastico, abilità relative alla gestione del proprio tempo libero, abilità lavorative. Le procedure standardizzate a disposizione per le scale adattive non sono adeguatamente tarate per la popolazione italiana. La ABS è una scala caratterizzata da dati normativi a partire dai 3 aa di vita in su, la ABI possiede dati normativi dall’età di 6 fino ai 18 aa di età, valuta le capacità della vita quotidiana. La Vineland è la scala che offre maggiori garanzie: è standardizzata su 3.000 soggetti normali, sono stati calcolati i coefficienti di correlazione (per minimizzare i fattori di disturbo), è stata tarata su età dai 0 ai 19 aa, è composta da 5 sub-scale, per ogni voce il punteggio è stabilito in 3 livelli: 2 punti=soddisfacente, 1 punto=attività nuova, 0 punti= nessuna risposta. Le 5 sub-scale sono: comunicazione (ricezione, espressione, lettura e scrittura) Vita quotidiana (autonomia personale, autonomia domestica, comunità) Socializzazione (rapporti interpersonali, gioco e tempo libero[imitazioni, motricità]) abilità grosso-motorie (abilità di motricità fine) comportamenti problematici VALUTAZIONE COGNITIVA DEL BAMBINO CON DEFICIT VISIVO Si riferisce al problema del deficit visivo di origine centrale che spesso si affianca a disabilità motoria o psichcia. Si definisce come il deficit che consegue ad una lesione a carico delle vie e centri nervosi situati oltre il chiasma ottico. L’assessment di questi bambini , specie in età precoce, è essenziale per poter impostare un trattamento di stimolazione psichica tempestiva. In alcuni casi sono utilizzabili i test di sviluppo psichico nei primi anni ben conosciuti, cioè le scale classiche dello sviluppo…, le scale piagettiane (Uzgiris-Hunt) , i test per gli anni successivi…. La grande variabilità delle prestazioni e dei disturbi associati possono rendere difficilmente utilizzabili test psicometrici per valutare le capacità 22
  • 23. cognitve dei bambini con CVI. È però possibile ottenere un profilo dello sviluppo attraverso le scale appositamente costruite per bambini ciechi o ipovedenti come quelle di Reynell-Zinkin . La Bayley scales of infant development è una fra le misure più usate per lo sviluppo infantile . Misura lo sviluppo mentale e motorio, consiste di 3 parti: scala mentale (acuità sensorio-percettiva, discriminazione, costanza dell’oggetto, memoria apprendimento, risoluzione di problemi, vocalizzazione, verbalizzazione precoce e pensiero astratto precoce), una scala motoria ( controllo del corpo, coordinazione e manipolazione digitale) e scala di valutazione del comportamento (comportamento affettivo, motivazioni e interessi); le voci sono numerate a seconda della difficoltà da un livello basale ad un livello massimo. I punteggi portano ad un indice di sviluppo mentale e ad un indice di sviluppo psico-motorio, che vengono poi convertiti in valori età equivalenti. Si usa dai 2 mesi ai 2 anni di età. Tarata su 1000 bambini sani , il limite è l’incapacità di prevedere con sufficiente chiarezza lo sviluppo intellettivo futuro. BRUNET-LEZINE Oltre ad un punteggio di sviluppo globale , questa scala prevede la possibilità di mantenere separati i punteggi ottenuti nei 4 campi sondati (controllo posturale e motricità, coordinazione oculomotrice, linguaggio, relazioni sociali e personali), cosa che permette di studiare i ritmi di sviluppo in ciascuna area e di individuarne un eventuale ritardo, rendendo possibile, inoltre, un intervento immediato. STRUTTURA: la scala prevede 10 prove per ciascun livello ; gli item sono ripartiti in 4 campi: motorio o posturale, verbale, di adattamento con gli oggetti e delle relazioni sociali, inglobando in quest’ultima categoria la presa di coscienza di sé, le relazioni col prossimo, l’adattamento alle situazioni sociali, i giochi. L’applicazione del test propriamente detto ed il calcolo del quoziente di sviluppo avvengono a partire solamente dal IV mese di vita; fino a questa età la scala fornisce un’indicazione generale sull’andamento dello sviluppo. REYNELL-ZINKIN SCALES:scale di sviluppo per bambini disabili visivi Queste scale offrono , ai professionisti che operano con disabili visivi nella prima infanzia, una guida per la valutazione dell’orientamento nello sviluppo : la conoscenza degli stadi evolutivi raggiunti dal bambino e la successione degli stessi in sequenza permettono di offrire un insegnamento precoce ed adeguato. Si esplorano le aree di apprendimento e di sviluppo , particolarmente importanti per bambini disabili visivi, e si progetta un piano educativo che possa essere condotto dai genitori a casa. STRUTTURA: sono state selezionate 5 aree principali: adattamento sociale ( valutazione della sfera di autonomia, come riconoscimento della voce, capacità di vestirsi, autoalimentarsi ecc.), comprensione sensomotoria (comprensione degli oggetti concreti e delle loro relazioni specifiche), esplorazione dell’ambiente( orientamento nella stanza, porte, ecc.), risposta al suono e comprensione verbale (localizzazione e riconoscimento dei suoni), linguaggio espressivo (nominare oggetti familiari, uso e posizione degli oggetti fino all’abilità di costruire frasi sugli eventi in corso). La presentazione degli item non è rigida, come anche la somministrazione , visto il target dello strumento. DESTINATARI: bambini dai 0-5 anni. SOMMINISTRAZIONE: tempo libero individuale. COMPOSIZIONE: 2 scale di sviluppo motorio, 5 scale di sviluppo mentale . CAMPIONAMENTO: italiano: 176 bambini non vedenti e ipovedenti (1996). SCALE PER VALUTARE LE ABILITA’ COGNITIVE NELLA PARALISI CEREBRALE INFANTILE (PCI). Partendo dalla centralità dell’azione nella genesi delle rappresentazioni mentali, soprattutto nei primi 2 anni di vita e –secondo Piaget-, è attraverso l’esercizio degli schemi sensomotori che il bambino entra in contatto con la realtà, se ne impadronisce , crea gli scambi con questa e da questo scambio trae le strutture cognitive da usare per comprenderla. Teniamo presente che non sempre la PCI si accompagna a compromissione della sfera psichica (circa 1/3 di bambini con PCI ha sviluppo cognitivo nella norma). Le scale istituite allo scopo di valutare i deficit cognitivi in questi soggetti devono tenere conto 23
  • 24. anche del significato che si dà al termine azione, che non consiste semplicemente in un insieme di gesti motori ma deve tener conto dell’intenzione a cui si finalizza il gesto. Per cui nelle scale entreranno in qualche modo la valutazione ddi variabili proprie del bambino (aspetti affettivi, percettivi, sensoriali, motivazioni, capacità mnesiche ecc.) e variabili relative all’interazione con l’ambiente (aspetti sociali, adeguatezza delle proposte, comprensione della modalità di funzionamento ecc.). l’assessment cognitivo si avvarrà quindi di strumenti neuropsicologici onde sottolineare gli aspetti deficitari selettivi in particolare utilizzando strumenti che poco insistano su implicazioni motorie. Per le scale di sviluppo sicuramente le meglio indicate sono: SCALE DI UZGIRIS-HUNT. Si tratta di scale ordinali basate sulle teorie piagetiane dello sviluppo sensomotorio (ovvero che l’intelligenza si sviluppa su una base pratica attraverso l’azione), valutano lo sviluppo del bambino da 0 a 24 mesi, sono distinti in 6 sottoscale: inseguimento visivo e permanenza dell’oggetto, relazioni mezzi-fini, imitazione vocale ed imitazione gestuale, causalità operazionale, relazioni spaziali fra gli oggetti, schemi sensomotori. Rispetto ai tradizionali test di sviluppo della stessa età questi test sembrano meno influenzati dalla disabilità motoria, sono più suscettibili di adattamento nelle modalità di somministrazione e migliore codifica ha la risposta. Un altro test recentemente sviluppato è il FAGAN TEST OF INTELLIGENCE IN INFANCY (FTII): è utilizzabile soltanto nei primi mesi di vita e fornisce un indice della capacità di processamento delle informazioni. Deriva dal costrutto teorico di Fanz e consiste nel riconoscimento di volti implicando così processi percettivi, mnestici e attentivi, cioè funzioni cognitive di base che sottendono a processi cognitivi più propri dell’età successiva. Per il bambino con età >2 anni ci si avvarrà di strumenti classici e più specifici come quelli già segnalati. GRIFFITHS MENTAL DEVELOPMENT SCALES Sono scale di concezione europea per la misura del livello intellettivo. Furono pubblicate la prima volta nel 1954 e coprivano i primi 2 aa di vita. Nel 1970 fu pubblicata l’estensione alla fascia d’età successiva (2-8 aa). Si tratta della scala di sviluppo più utilizzata nel Regno Unito. Qste scale misurano aspetti dello sviluppo significativi per l’intelligenza o indicativi della crescita mentale in neonati e bambini dalla nascita all’ottavo aa di età, permettendo diagnosi certe e sufficientemente rapide per distinguere gruppi diversi di bambini , il normale dal disabile, il sordo dal sogg. Con ritardo, l’emotivamente disturbato o inibito da quello con disturbi mentali permanenti. Le Griffits sono quindi in grado di valutare lo sviluppo intellettivo di bambini con differenti tipologie di handicap (motorio, sociopersonale, difficoltà di linguaggio, handicap nella manipolazione di oggetti ecc.) grazie alla loro articolazione in test finalizzati ciascuno all’assessment in un’area specifica. STRUTTURA: sono costituite da 2 set di scale , ciascuna per una fascia d’età differente: scale 0-2 anni: locomotor (54 item), personal-social( 58 item), hearing and language (56 item), eye and hand (54), performance (54 item); scale 2-8 aa: locomotor (86 item), personal-social(86 item), hearing and speech (86 item), hand and eyeco- ordination (86 item), perforamnce test (86 item), practical reasoning (86 item). Ogni set consiste di un certo numero di componenti standardizzate; i componenti sono diversi per ciascuno dei 2 set. Le scale 0-2 aa comprendono 27 componenti, le scale 2-8 aa ne comprendono 22(alcuni sono comuni ad ambedue le scale). Ultima revisione 1996. sono scale destinate a bambini tra 0 e 8 aa, richiedono circa 1 ora di somministrazione. CAMPINAMENTO: scale 0-2 aa: 665 soggetti (27-28 per mese di età), scale 2-8 aa: 2260 soggetti divisi per fasce d’eà di 1 aa (1970). SCALA LEITER-R: è una scala completamente non verbale, che non richiede comunicazione verbale fra esaminatore e soggetto del test, né che quest’ultimo legga o scriva qualcosa. È quindi particolarmente adatta per bambini ed adolescenti con ritardo cognitivo e con disturbi verbali. Si 24
  • 25. somministra come un gioco , cosa che la rende divertente per i bambini, e il punteggio è effettuato in modo semplice e veloce. A differenza dei tradizionali test di QI la Leiter-R pone l’accento sull’intelligenza fluida , che è la misura più vera dell’intelligenza innata di un individuo. Essa è quindi meno soggetta a influenze culturali, sociali, educative. STRUTTURA: consiste di 2 batterie standardizzate: visualizzazione e ragionamento (VR): costituita da 10 subtest per la misura di capacità cognitive non verbali legate alla visualizzazione , alle abilità spaziali e al ragionamento; attenzione e memoria(AM): costituta da 10 subtest. Sono incluse inoltre 4 scale di livello( per l’esaminatore, per il genitore, di autovalutazione e per l’insegnante) , che permettono un’osservazione multidimensionale del comportamento del soggetto. Le 2 batterie possono essere somministrate assieme (per un tot di 90 min) o separatamente. Ambedue permettono di ottenere punteggi “di crescita”, non standardizzati con l’età, che misurano piccoli, ma importanti miglioramenti in soggetti con gravi deficit cognitivi, in modo che sia possibile monitorarne nel tempo i progressi. La batteria VR prevede 2 possibilità di valutare l’intelligenza globale: screening di QI breve (25 min), o scala completa (40 min9 per una stima affidabile completa della intelligenza non verbale. La batteria AM permette di individuare con precisione soggetti affetti da disturbi da iperattività ne da deficit di attenzione (ADHD), da disturbi dell’apprendimento (LD) o da altri deficit di carattere neuropsicologico, contribuendo al punteggio di QI globale grazie ad attendibili indicatori diagnostici relativi ai punteggi ottenuti dal soggetto alla batteria VR. La batteria AM offre uno screening rapido dei processi di memoria, per differenziare ADHD e LD, o una diagnosi completa delle capacità di attenzione e memoria. L’edizione italiana è una traduzione dall’originale non corredata di adattamento: le norme di riferimento sono quelle USA. È destinata a bambini e adolescenti. Si somministra in 35 min (AM) e 40 min. (VR). CAMPIONAMENTO USA: VR 1719 sogg normali e 692 casi clinici (2-20 aa); AM 763 bambini. NEMI (NUOVA SCALA METRICA DELL’INTELLIGENZA) Misura l’intelligenza di soggetti tra 3-15 aa, offre diversi vantaggi di ordine pratico rispetto a strumenti simili: la possibilità di seguire un bambino durante tutta la durata della scuola dell’obbligo, dalla materna alla media, evitando di cambiare tipo di test. È rapida e semplice da applicare, il sistema di punteggio segue la dispersione standard sec. Wechsler, che permette di cogliere nel bambino, oltre alla sua posizione rispetto ai coetanei, anche la valutazione della gravità del ritardo. STRUTTURA:consiste di 74 prove ordinate dalla più facile alla più difficile e basate su numeri, disegni, problemi , andando così a sondare i processi di memorizzazione, le capacità logiche, la cultura generale e l’orientamento temporale nel soggetto. Oltre ad un risultato globale in QI, fornisce strumenti per l’interpretazione analitica dei risultati individuali. Nella valutazione si deve tener conto del valore di ciascuna prova in quanto indice di livello intellettivo e dell’estensione della dispersione dei risultati in rapporto all’età mentale di ogni soggetto. DESTINATARI: 3-15 AA, SOMMINISTRAZIONE 1 H C.A, CAMPIONAMENTO: ITALIANO 226 BAMBINI 4-13 AA (1980-81) LA SCALA STANDFORD-BINET Binet e il modello metrico di intelligenza Il primo test nato per valutare le differenze tra bambini normali e con ritardo mentale conteneva circa 30 item (singola unità di cui è costituito un test) di comprensione e ragionamento. La prima versione è del 1904, le revisioni sono avvenute nel 1908 e 1911. Per la prima volta si studiano con questo test direttamente le capacità complesse e non le abilità percettive di base. Nel 1916 viene pubblicata la versione americana Stanford-Binet da parte di Terman. Dal 1920 al 1940 avvengono continue revisione della Stanford-Binet. Nel 1966 c’è la revisione della Binet-Simon in Francia ad opera di René Zazzo. La tecnica di Binet 25
  • 26. Si definisce tecnica dei "gruppi contrapposti". Nella sostanza si prendono due campioni considerati "estremi" per una certa abilità e, una volta somministrata una serie di prove, si individuano quelle prove che maggiormente mettono in evidenza la differenza tra i due gruppi considerati. Esempi di gruppi contrapposti nella pratica psicometrica: 1) maschi e femmine, 2) giovani e anziani, 3) normali e patologici. Binet aveva a disposizione bambini normali e bambini con ritardo ospiti dell'istituto presso il quale lavorara Theodore Simon, il Perray-Vaucluse. Concetto di base della teoria du Binet è la definizione di età mentale. • Età mentale. Consiste in una stima dell'età cronologica che un certo soggetto dovrebbe avere sulla base del confronto della sua prestazione con quella di un campione rappresentativo di individui di diverse classi dì età. Ad esempio un bambino di otto anni ha una età mentale dì 10 nel senso che risolve compiti che sono risolti usualmente da bambini di 10 anni (e non di otto). Nella scala del 1908 ci sono 50 item, 4-5 item per ogni anno successivo di età tra i 3 e i 15 anni. Esempio: Ricordare una lista di cifre. 2 cifre: due anni mentali 3 cifre: tre anni mentali, 5 cifre: otto anni mentali, 7 cifre: 15 anni mentali. Binet aveva cioè strutturato un metodo del calcolo dell'età mentale che era basato su delle ponderazioni a priori. Altro concetto presente nella scala è il così detto QI di rapporto. Si tratta di una concezione elaborata nel 1912 da uno psicologo tedesco, William Stern, egli ,sulla base della scala dei due autori francesi enunciò la nozione di Quoziente intellettivo. Il QI. è costituito dal rapporto (da qui il termine quoziente), moltiplicato per 100 (al fine di evitare i decimali) tra età mentale e età cronologica. Esprime la rapidità di sviluppo, oppure più genericamente il vantaggio o lo svantaggio che un certo bambino mostra rispetto alla media dei suoi coetanei. Esempi: età ment. 12, età cron. 10; (12/10)x100=120 età ment. 10, età cron. 12; (1 0/1 2)xl 00=83 Quali sono i vantaggi della "scala metrica di intelligenza"? 1) cerca di valutare i processi mentali complessi invece dei soli processi sensoriali. 2) ordina la difficoltà di una serie di item (complessità cognitiva) in base all'età in cui gli item vengono normalmente risolti. 3) ordina di conseguenza anche gli individui sulla base della loro età mentale: sotto la norma, sopra la norma e nella norma. 4) fornisce un punteggio univoco che esprime il grado di sviluppo in termini di rapporto tra età mentale e età cronologica: Il QI. COMPOSIZIONE: la scala consiste in 15 subtest. Il subtest ‘vocabolario’ è somministrato per primo per definire un livello base necessario per iniziare le voci di tutti gli altri subtest. Il livello base per ogni test corrisponde alle prime 2 voci consecutive corrette, mentre il livello massimo è costituito da 4 errori 26
  • 27. consecutivi. Il solo test a tempo è costituito dall’analisi del disegno. I subtest sono: vocabolario, comprensione, assurdità, relazioni verbali, analisi del disegno, copia, moatrici, confronto quantitativo, serie di numeri, formazione di equazioni, memoria per disegni, memoria per frasi, memoria per cifre, memoria per oggetti, i subtest sono raggruppati in 4 aree: ragionamento verbale, ragionamento astratto/visivo, ragionamento quantitativo, memoria a breve termine. Dal punteggio di area si ottiene il punteggio di somma. Questi punteggi standard sono equivalenti al QI, hanno una media 100 e una deviazione standard di 16. l’età di valutazione va da 2 a 23 anni. TEST DI INTELLIGENZA DI WECHSLER Premessa per capire come si è arrivati alle scale di intelligenza di Wechsler è tornare a due concetti già espressi in precedenza: il concetto di fattore generale d’intelligenza di Spearman e il concetto di abilità primarie di Thurstone. Partiamo da Spearman: egli ha stabilito le sue deduzioni rifacendosi a 2 nozioni : la nozione di coefficiente di correlazione e la nozione di analisi fattoriale. Il coefficiente di correlazione consiste nell’indice del grado di relazione tra 2 variabili o tra 2 misure entrambe registrate sullo stesso campione di individui. L’indice varia da –1 (perfetta correlazione negativa – come avviene per esempio tra le variabili attenzione e mancanza di sonno) a +1 (perfetta correlazione positiva – come ad es. reddito e soddisfazione personale). Lo 0 significa assenza di relazione. L’indice può quindi essere interpretato in termini di grado di somiglianza tra 2 misure. L’analisi fattoriale è una tecnica multivariata cioè che prende in esame più variabili assieme, di analisi dei dati che consente, partendo dalle intercorrelazioni tra le variabili considerate, di individuare fattori comuni non direttamente misurabili ma che sono spiegati dalle parti comuni delle variabili osservate. In questo modo è possibile ridurre le dimensioni in gioco perché le variabili tendono ad assemblarsi in fattori numericamente inferiori. Il primo metodo di analisi fattoriale è stato applicato da Spearman ad una serie di correlazioni ottenute da un campione di soggetti in diverse prove: voti scolastici, semplici test, valutazioni dell’intelligenza fornite dai professori. Egli individuò così un fattore generale comune a tutti i tipi di variabili possedute, il fattore g o fattore generale di intelligenza, più una serie di altri fattori specifici per le diverse misure considerate.Spearman considerava il suo fattore g come una sorta di ‘energia mentale’. In modo più pragmatico il fattore g aveva forti correlazioni (cioè psicometricamente ‘saturava’) con 2 prove di ragionamento: la capacità di fare inferenze( comprendere quale è il nesso, la relazione tra 2 entità come ad es. nella scala Wechsler al test somiglianza-> arancia e banana = frutti) e di generalizzare o associare( trovare un’altra entità che soddisfi l’associazione tra una entità e una relazione , come sopra- >arancia e frutti=possibile associazione banana). Il fattore g costituisce il primo esempio di modello fattoriale d’intelligenza. Secondo Thurstone le tecniche di analisi fattoriale ed un approccio più analitico alle capacità umane potevano mettere in dubbio il modello ad un solo fattore di Spearman. Egli negli anni 30 individuò una serie di abilità separate che definì ‘abilità primarie’, che erano: 1-comprensione verbale, 2-fluidità verbale, 3-abilità numerica, 4-abilità inferenziale, 5-abilità spaziale, 6-velocità percettiva, 7-memoria. Per inciso, questa diatriba trovò nel 1966 ad opera di Horn e Cattell la sintesi seguente – detta del ‘fattore di terz’ordine-‘: 1-intelligenza cristallizzata (acquisizioni e conoscenze organizzate nella memoria), 2-intelligenza fluida (capacità basata sulle capacità di ragionamento e non su quelle ‘a priori’), 3-fattore generale di intelligenza visuo-spaziale, 4-fattore generale di creatività(capacità di scoprire soluzioni nuove e originali ), 5-fattore generale di velocità di reazione . In questa discussione s’inserisce David Wechsler. Egli era psicologo in un ospedale psichiatrico. Il suo compito era di valutare le capacità intellettive dei suoi pazienti. Nel suo percorso si trovò a criticare sia le teorie di Spearman e di Thurston, sia l’approccio psicometrico di Binet. 27
  • 28. La scala di Stanford-Binet era considerata da Wechsler inadatta perché era fatta solo per bambini, era troppo basata sulla verbalizzazione e il QI di rapporto non poteva valere per gli adulti. Egli aveva nei confronti dell’intelligenza un approccio di tipo pratico piuttosto che teorico. Era convinto che l’intelligenza generale esiste e può essere misurata. Sosteneva inoltre che il concetto di QI- benchè ampiamente criticato- avesse comunque una sua utilità. L’intelligenza è la capacità generale di un soggetto a far fronte al mondo circostante. Si tratta di Wechsler di una entità generale o globale, ovvero una entità multideterminata ( e non un tratto indipendente e singolarmente definito), evita pertanto di indicare qualche singola abilità come determinante o essenziale. Per Wechsler si tratta dunque di qualcosa che viene dedotta dal modo in cui queste abilità si manifestano nelle diverse condizioni e circostanze. Inoltre l’intelligenza per essere buona e adatta deve utilizzare quanti più linguaggi differenti possibili. Questi linguaggi differenti possono essere misurati attraverso i test, più elevata è la varietà di test più linguaggi vengono testati. Inoltre il comportamento intelligente , secondo le indicazioni di Wechsler, comprende anche fattori che dipendono da tratti della personalità e del comportamento volitivo. Questi sono definiti fattori non intellettivi dell’intelligenza che attivano e dirigono l’utilizzazione delle altre capacità. Wechsler ovviò ai problemi della Stanford-Binet introducendo item più adatti a tutte le età, divise le sue scale in due sottoscale (verbale e performance) e inventò il QI di deviazione. Le scale di Wechsler sono 3: la Wechsler Preschool and Primary Scale of Intelligence (WIPPSI-R) per 3-7 anni di età; la Wechsler Intelligence Scale for Children (WISC-III/R) per età dai 6 ai 16 anni, la Wechsler Adult Intelligence Scale (WAIS-R) per 16-74 aa.per quanto riguarda la WISC venne pubblicata nel 1949 sulla scia della analoga versione per adulti. La WISC era stata costruita per bambini tra i 5 e i 15 aala principale novità di tale scala è stato l’abbandono del concetto di età mentale (EM) come misura di intelligenza per Binte un bambino di 6 aa era atteso avere una EM di 6 e così via. Questa concezione di EM è stata ampiamente contestata a livello sia clinico che statistico perché se vale questa affermazione significa che se per es. avere una EM 7 tutti i bambini che ottengono questo punteggio hanno un livello mentale di 7. questa conclusione di uguaglianza viene però immediatamente smentita dalla osservazione clinica , perché è intuitivo che un bambino di 5 aa con EM 7 e un bambino di 10 aa con EM 7 non hanno sicuramente lo stesso tipo d’intelligenza. Da ciò deriva che anche la misurazione del QI che si calcola dal rapporto EM/EC risente dello stesso difetto , ovvero del tentativo di eliminare la variabile età. Infatti un bambino di 5 aa con EM 6 ha QI di 120. anche un bambino di 10 con EM 12 ha un QI di 120, mal primo bambino è avanti di 1 aa e il secondo bambino è avanti di 2 aa, quindi se non si specifica il QI e a che età non si elimina il fattore età (questo problema divenne vieppiù evidente quando tentò di costruire i QI degli adulti). Il problema è stato appunto ovviato introducendo il concetto di QI di deviazione , ovvero confrontando le prestazioni al test di un soggetto solo con punteggi ottenuti da altri soggetti della stessa età ( ovvero QI di deviazione con media 100 e ds 15 o 16, non più indice di sviluppo ma indicatore del rango che occupa il punteggio ottenuto tra quelli della popolazione di riferimento). COMPOSIZIONE: La WISC-R (che non differisce dalla ultima revisione che si chiama WISC III) è costituita da 12 test: informazione, completamento di figure, somiglianze , storie figurate, aritmetica, disegno coi cubi, vocabolario, ricostruzione di oggetti, comprensione, cifrario e labirinti. Originariamente era stata aggiunta una prova di performance supplementare –riproduzione di sequenza di posizione- che dopo il campionamento è stata tolta perché poneva problemi di somministrazione e non soddisfaceva i criteri statistici applicati. Nella ultima revisione è invece stato introdotto il test associazione simboli/numeri e resi opzionali sia il labirinto che il cifrario, oltre alla memoria di cifre già opzionale nella WISC-R. il calcolo del QI viene fatto escludendo la memoria di cifre per la scala verbale e i labirinti/cifrario per quella non verbale. Questi sono stati considerati test supplementari da applicare se si ha tempo a disposizione oppure se non sono applicabili altre prove. La distinzione tra scala verbale (V) e non verbale (NV) trova le sue motivazioni innanzitutto perché costituisce un modo 28
  • 29. per identificare due importanti modi di esprimersi delle abilità umane. Altresì è stato dato uguale peso a tutte le prove che costituiscono il test basandosi sulla concezione che le misure di intelligenza sono più utili se ‘armonizzate’ piuttosto che ‘gerarchizzate’. I singoli test valutano diverse abilità: informazione=cultura generale, analogie=capacità concettuali e facilità di linguaggio ragionamento aritmetico= abilità di calcolo ; Vocabolario= capacità recettive; Comprensione= ragionamento pratico; Memoria di cifre= attenzione e memoria a breve termine; Completamento di disegni= relazioni parte-intero; Riordinamento di disegni= capacità di sequenzamento visivo, consapevolezza sociale, pianificazione e capacità di comprendere le relazioni fra gli eventi; Disegno con cubi, ricerca di simboli e Ricostruzione di figure = coordinazione visuo-motoria; Associazione simboli/numeri= coordinazione visuo-motoria e efficienza motoria; Labirinto= capacità visuo-motorie e di pianificazione. CAMPIONAMENTO: Le norme di campionamento derivano da gruppi rappresentativi della popolazione dei bambini degli Stati Uniti. La gamma di età coperta va dai 6 anni e O mesi ai 16 anni e 11 mesi. La campionatura non ha potuto essere strettamente casuale, per rispettare la rappresentatività della popolazione si è dovuti ricorrere ad una campionatura stratificata, con riferimento ai dati del censimento americano del 1970. Per età sono stati selezionati 200 soggetti. Il sesso è stato valutato in maniera uguale, benché nella popolazione americana tra i 6 e i 16 anni fossero prevalenti i maschi, per ogni strato è stato considerato un campione di 100 soggetti per sesso. I gruppi etnici sono stati rappresentati sempre secondo le indicazioni del censimento; le regioni geografiche sono state divise in 4 settori(nord -est, centro-nord,sud e ovest). I soggetti sono stati estratti dal gruppo normativo in base alle proporzioni di soggetti residenti in ciascuna regione. Sono state prese in considerazione 5 categorie occupazionali (1= libero professionista,=dirigenti /ufficiali/ impiegati /imprenditori /commercianti; 3=artigiani /operai specializzati/capi operai; 4=operai/personale ausiliario/agricoltori; 5=lavoratori non qualificanti/braccianti. Sono state poi prese in considerazione derivazioni urbane ed extraurbane secondo la convenzione urbane>2500 abitanti. Il campione di standardizzazione fu inoltre limitato a soggetti normali, intendendo con ciò bambini che non fossero riconosciuti insufficienti mentali istituzionalizzati o sospetti insufficienti mentali e soggetti con gravi problemi emozionali o familiari. I dati ottenuti dal campionamento per quanto riguarda queste variabili è risultato soddisfacente. Le proporzioni statistiche della popolazione americana sono state abbastanza rispettate, sia per distribuzione di razza che di ceto sociale. DAI PUNTEGGI GREZZI AI PUNTEGGI PONDERATI: La distribuzione dei punteggi grezzi di ogni livello di età è stata convertita per ciascuno dei 12 test componenti la batteria in una scala avente media 10 e deviazione standard 3. Il primo passo è stato preparare la distribuzione della frequenza cumulativa dei punteggi grezzi per ogni gruppo di età, la distribuzione è stata poi normalizzata e infine- sono stati calcolati i punteggi ponderati corrispondenti a ciascun punteggio grezzo. Per ogni test è stata controllata la progressione dei punteggi grezzi di età in età e sono state eliminate mediante tecniche di compensazione alcune piccole irregolarità. Per ciascuno dei 12 test e ad intervalli di 4 mesi sono stati calcolati i punteggi ponderati , essi vanno da 1 a 19 e presentano 3 deviazioni standard parte per parte della media. I QI vengono poi ottenuti basandosi sui punteggi ponderati ottenuti separatamente per ciascun gruppo di età, ponendo l'accento sul confronto di un soggetto con quelli della sua età cronologica. Le tabelle dei QI sono calcolate sulla base di 3 punteggi : di somma dei test verbali a dare il QI Verbale, la somma dei punteggi ai test di performance a dare il QI non verbale e la somma dei due precedenti punteggi a dare il QI totale. Le medie e le dev St delle tre somme di punteggi sono state calcolate per ciascun gruppo di età. L'esame di queste tre quantità mostra un alto grado di corrispondenza. Di conseguenza come base per la costruzione dei QI sono state usate le rispettive somme dei punteggi ponderati di tutti i gruppi di età Per ogni scala la m e sd delle corrispondenti somme dei punteggi ponderati sono state fissate a 100 e 15. I QI sono forniti per tutti i possibili valori delle somme dei punteggi ponderati. I valori considerati sono dati finoa 3 sd per la scala V e 2/3 di sd 29