psicometria 9 cfu unico
|
|
Title of test:
![]() psicometria 9 cfu unico Description: psicometria 9 cfu unico |



| New Comment |
|---|
NO RECORDS |
|
Quando si traggono conclusioni attraverso una prova sperimentale gli errori decisionali. possono essere solo falsi negativi. non possono verificarsi. possono essere falsi positivi o falsi negativi. possono essere solo falsi positivi. Se un esame del sangue di un uomo dovesse indicare la presenza di una gravidanza in atto saremmo di fronte a: nessuna delle alternative. entrambe le alternative. falso negativo. falso positivo. Se una donna al nono mese di gravidanza non dovesse risultare positiva ad un test di gravidanza ci troveremmo davanti a: falso negativo. nessuna delle alternative. falso positivo. entrambe le alternative. Come esito di una prova sperimentale svolta per verificare una ipotesi si può ottenere che. l'ipotesi di partenza non è confermata. entrambe le alternative. l'ipotesi di partenza è confermata. nessuna delle alternative. La probabilità che si presenti un errore del primo tipo è detta. potenza. errore standard. significatività. varianza. Nella Teoria Fisheriana, l'ipotesi nulla H0. nessuna delle alternative. entrambe le alternative. ipotizza la presenza di differenze dovuto a un trattamento. ipotizza l'assenza di differenze dovute a un trattamento. Se come risultato di un esperimento otteniamo un valore di significatività superiore a 0,05. confermiamo l'ipotesi nulla. confermiamo l'ipotesi alternativa. falsifichiamo l'ipotesi nulla. nessuna delle alternative. La probabilità di falsificare l'ipotesi nulla quando questa è falsa è detta. test statistico. potenza. varianza. significativitá. La potenza dipende da: tutte le alternative. quanto è la differenza minima che riteniamo non trascurabile da un punto di vista pratico. numerosità del campione. variabilità della variabile misurata. La potenza è. La probabilità di falsificare l'ipotesi nulla quando questa è falsa. la variabilità dei dati nel campione. la forza del legame tra due variabili. La probabilità che si presenti un errore del primo tipo. La Teoria Fisheriana ha come punto di partenza l'individuazione. del test statistico. dell'ipotesi nulla. del campione da testare. dell'ipotesi alternativa. Se come risultato di un esperimento otteniamo un valore di significatività inferiore a 0,05. falsifichiamo l'ipotesi nulla. falsifichiamo l'ipotesi alternativa. confermiamo l'ipotesi nulla. nessuna delle alternative. Nella Teoria Fisheriana, l'ipotesi nulla H1. ipotizza l'assenza di differenze dovute a un trattamento. entrambe le alternative. nessuna delle alternative. ipotizza la presenza di differenze dovuto a un trattamento. Una caratteristica è definita costante se. si manifesta in una sola modalità. non può essere misurata. si manifesta in almeno due modalità. può essere misurata solo con metodi qualitativi. Una caratteristica è definita variabile se. si manifesta in almeno due modi diversi. non può essere misurata. può essere misurata solo con metodi qualitativi. si manifesta in una sola modalitá. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e non ha uno 0 assoluto è detta. a intervalli equivalenti. ordinale. nominale. a rapporti equivalenti. . La scala di misura ordinale. colloca i casi in categorie non ordinabili. nessuna delle alternative. ha intervalli tra i numeri della stessa ampiezza. permette di ordinare i valori dal più piccolo al più grande. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e uno 0 assoluto è detta. a rapporti equivalenti. ordinale. nominale. a intervalli equivalenti. Le scale di misura in psicologia possono essere. a intervalli o rapporti equivalenti. nominali. tutte le alternative. ordinali. La grandezza di una casa in metri quadri è su scala. nominale. a rapporti equivalenti. ordinale. a intervalli equivalenti. . La scala di misura nominale. di tipo qualitativo. di tipo quantitativo. è utilizzata per i punteggi ai test. non viene utilizzata in statistica. Nella scala di misura nominale le categorie. non possono essere ordinate. entrambe le alternative. nessuna delle alternative. non indicano una quantità. La variabile "Paese di origine" che ha come modalità "Italia; altro Paese Europeo; altro Paese Extra-europeo" è misurata su scala. nominale. a rapporti equivalenti. ordinale. a intervalli equivalenti. Una scala di misura costituita da numeri disposti in modo da riflettere una graduatoria è detta. a rapporti equivalenti. ordinale. nominale. a intervalli equivalenti. Una scala di misura in cui i numeri sono definiti in modo che la differenza tra i punteggi indica l’ampiezza dell’intervallo che li separa è detta. a intervalli equivalenti. nominale. ordinale. nessuna delle alternative. Una scala di misura in cui i numeri rappresentano la distanza da uno 0 assoluto non arbitrario è detta. nominale. a intervalli equivalenti. a rapporti equivalenti. ordinale. La somma delle frequenze di una categoria e di tutte le precedenti è. la frequenza cumulata. nessuna delle alternative. La frequenza assoluta. la frequenza percentuale. . La frequenza è. entrambe le alternative. nessuna delle alternative. il numero delle unità statistiche in cui si presenta una modalità di una variabile. il conteggio di quanto spesso una cosa si verifica all'interno dei nostri dati. . La frequenza espressa come percentuale sul totale delle frequenze è. nessuna delle alternative. la frequenza percentuale. la frequenza assoluta. la frequenza cumulata. Si può calcolare la frequenza di variabili su scala. ordinale. tutte le alternative. nominale. a intervalli equivalenti. La somma di tutte le frequenze è uguale. alla numerosità del campione. alla mediana del campione. alla media del campione. alla varianza del campione. Per una variabile quantitativa è possibile calcolare. tutte le alternative. le frequenze cumulate. le frequenze percentuali. le frequenze assolute. . Per variabili quantitative è più corretto utilizzare. grafici a torta. istogrammi. grafici a barre. nessuna delle alternative. Per variabili qualitative o nominali si possono utilizzare. grafici a barre. grafici a torta. entrambe le alternative. nessuna delle alternative. La moda è un indice di. significatività. dispersione. tendenza centrale. frequenza. La mediana è un indice di. significatività. dispersione. tendenza centrale. frequenza. Con le variabili quantitative si può calcolare. la moda. tutte le alternative. la media. la mediana. La media è un indice di. tendenza centrale. significatività. frequenza. dispersione. Con le variabili nominali o qualitative si può calcolare. la moda. la mediana. tutte le alternative. la media. La moda può essere calcolata con variabili. qualitative. tutte le alternative. nessuna delle alternative. quantitative. La media: il valore che divide a metà una distribuzione ordinata. la categoria o il punteggio che si verifica con maggior frequenza. non è influenzata dai valori estremi. è influenzata dai valori estremi. . Il punteggio o categoria più frequente di una variabile è. la moda. la media. la varianza. la mediana. Dividendo la somma dei punteggi per il loro numero si ottiene. la mediana. la mediana. la moda. la varianza. La media può essere calcolata con variabili. quantitative. qualitative. nessuna delle alternative. tutte le alternative. La media è: la categoria o il punteggio che si verifica con maggior frequenza. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. la somma dei punteggi diviso il loro numero. il valore che divide a metà una distribuzione ordinata. La moda è: il valore che divide a metà una distribuzione ordinata. l’intervallo dal punteggio più grande al punteggio più piccolo di una variabile. nessuna delle alternative. la categoria o il punteggio che si verifica con maggior frequenza. Nella seguente distribuzione "7, 15, 12, 12, 7, 4, 10, 9, 12, 11" la moda è: 10. 12. 11. 7. . La mediana è. il valore che bipartisce la distribuzione. tutte le alternative. il valore non inferiore a metà dei valori e non superiore all'altra metà. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. La mediana è. la somma dei punteggi diviso il loro numero. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. la differenza tra il punteggio più grande e il punteggio più piccolo. Il punteggio o categoria più frequente di una variabile. La mediana è: La categoria o il punteggio che si verifica con maggior frequenza. il valore che divide a metà una distribuzione ordinata. la somma dei punteggi diviso il loro numero. l’intervallo dal punteggio più grande al punteggio più piccolo di una variabile. Nel calcolo della varianza gli scarti dalla media dei punteggi: sono elevati al quadrato. tutte le alternative. non sono elevati al quadrato. nessuna delle alternative. Nel calcolo della deviazione media gli scarti dalla media dei punteggi: non sono elevati al quadrato. nessuna delle alternative. tutte le alternative. sono elevati al quadrato. La somma degli scarti dalla media elevati al quadrato divisa per il numero di punteggi è. la varianza. la devianza media. il range. la mediana. La varianza. tutte le alternative. è la somma delle deviazioni dalla media elevate al quadrato divisa per il numero dei punteggi. considera tutti i punteggi, non solo quelli estremi. è un indice di dispersione. . l'intervallo dal punteggio più grande al punteggio più piccolo di una variabile è. la varianza. il range. la deviazione standard. la devianza media. Il range. tutte le alternative. è molto influenzato dai casi estremi. è l'intervallo dal punteggio più grande a quello più piccolo. non considera tutti i punteggi, ma solo quelli estremi. La radice quadrata delle deviazioni dalla media al quadrato è. la varianza. il range. la deviazione standard. il quantile. L'indice che misura la quantità media della quale i punteggi differiscono dal punteggio medio è. la deviazione standard. il quantile. il range. la media. . La deviazione standard misura. la quantità media della quale i punteggi differiscono dal punteggio medio. la quantità media della quale i punteggi differiscono dal punteggio più basso. la quantità media della quale i punteggi differiscono dal punteggio mediano. la quantità media della quale i punteggi differiscono dal punteggio più elevato. La deviazione standard. assume l'unità di misura delle variabili sulle quali è calcolata. tutte le alternative. è l'unità di misura standard in statistica. è la deviazione media dalla media. La deviazione standard. entrambe le alternative. nessuna delle alternative. è l'unità di misura standard in statistica. è la deviazione media dalla media. . I quantili. sono indici di posizione. tutte le alternative. dividono la distribuzione in n parti uguali. indicano la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse. L'indice di posizione che indica la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse all'interno di una distribuzione ordinata è detto. deviazione standard. quantile. media. varianza. Per sapere qual è il quoziente di intelligenza del 70% della popolazione calcolo. i percentili. la varianza. la deviazione standard. la media. Sono tipologie di quantili. tutte le alternative. i decili. i percentili. i quartili. valori che dividono la distribuzione in 100 parti uguali sono detti. percentili. decili. percentuali. decimi. La mediana coincide con. tutte le alternative. il secondo quartile. il quinto decile. il cinquantesimo percentile. Quale degli indici di tendenza centrale coincide con il cinquantesimo percentile?. la mediana. la media. nessuna delle alternative. la moda. Per calcolare il primo quartile. individuo il valore della posizione del primo quantile nelle frequenze assolute. è necessario conoscere la mediana. individuo il valore della posizione del primo quantile nelle frequenze cumulate. è necessario conoscere la varianza. In una distribuzione dei risultati di un test il venticinquesimo percentile coincide con il punteggio 45. Ciò significa che. il 45% dei soggetti ottiene un punteggio al massimo di 25. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 45. il 25% dei soggetti ottiene un punteggio maggiore di 45. il punteggio 45 divide in due parti uguali la distribuzione. In una distribuzione dei risultati di un test il settantesimo percentile coincide con il punteggio 90. Ciò significa che. il 70% dei soggetti ottiene un punteggio che arriva al massimo a 90. il 90% dei soggetti ottiene un punteggio al massimo di 70. il punteggio 90 divide in due parti uguali la distribuzione. il 70% dei soggetti ottiene un punteggio maggiore di 90. In una distribuzione dei risultati di un test il primo quartile coincide con il punteggio 20. Ciò significa che. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 20. il 20% dei soggetti ottiene un punteggio al massimo di 25. il 25% dei soggetti ottiene un punteggio maggiore di 20. il punteggio 20 divide in due parti uguali la distribuzione. I percentili permettono di. entrambe le alternative. indicare la collocazione di un soggetto rispetto al resto del campione. nessuna delle alternative. esprimere il punteggio ottenuto da un soggetto rispetto a quello ottenuto dal resto del campione. Nel grafico per rappresentare la curva normale sull'asse delle x abbiamo: il p-value. i punteggi. le frequenze. l'indice di correlazione. Sono caratteristiche importanti della curva normale: la sommatoria e la devianza. la simmetria e la curtosi. la correlazione e la regressione. la simmetria e la solidità. La distribuzione normale è tipica di variabili: continue. cumulate. costanti. nominali. Nel grafico per rappresentare la curva normale sull'asse delle y abbiamo: le frequenze. i punteggi. il p-value. l'indice di correlazione. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. sull'asse X sono riportate le frequenze. nessuna delle alternative. sull'asse X sono riportati i punteggi. sull'asse Y sono riportati i punteggi. . In una curva perfettamente normale. mediana e moda coincidono. media e mediana coincidono. media e moda coincidono. media, mediana e moda coincidono. In una curva normale. nessuna delle alternative. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. punteggi estremi e punteggi intorno alla media hanno frequenze simili. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. sull'asse Y sono riportati i punteggi. nessuna delle alternative. sull'asse Y sono riportate le frequenze. sull'asse X sono riportate le frequenze. La curva normale si caratterizza per. avere valori di media, mediana e moda che coincidono. tutte le alternative. essere a forma di campana. essere simmetrica. L'asimmetria (skewness) si ha quando. nessuna delle alternative. entrambe le alternative. ci sono più punteggi alla destra della moda. ci sono più punteggi alla sinistra della moda. La curtosi. tutte le alternative. può essere positiva. può essere negativa. indica se la curva è più ripida o più piatta rispetto alla distribuzione normale. Con il termine Skewess a quale caratteristica della curva normale ci riferiamo. simmetria. unità di misura. nessuna delle alternative. pendenza. Con il termine Curtosi a quale caratteristica della curva normale ci riferiamo. pendenza. nessuna delle alternative. simmetria. unità di misura. Con una Skew positiva il punto più alto della curva è nel lato: sinistro. centrale. non è presente. destro. Con una Skew negativa il punto più alto della curva è nel lato: destro. sinistro. centrale. non è presente. Per sapere se una curva di discosta dalla distribuzione normale utilizzo i valori. dell'asimmetria (skewness) e della curtosi. nessuna delle alternative. solo dell'asimmetria. solo della curtosi. La skewness. tutte le alternative. indica quanto la distribuzione è asimmetrica. può essere negativa. può essere positiva. L'indice che fornisce informazioni circa la simmetria di una distribuzione di punteggi è. la skewness. la curtosi. la varianza. la devianza. La skewness indica. la varianza della distribuzione normale. quanto una distribuzione è simmetrica rispetto al punto mediano. la media della distribuzione normale. se la curva è più ripida o più piatta rispetto alla distribuzione normale. La curtosi indica. se la curva è più ripida o più piatta rispetto alla distribuzione normale. la media della distribuzione normale. quanto una distribuzione è simmetrica rispetto al punto mediano. la varianza della distribuzione normale. Una distribuzione di frequenze è definita multimodale quando. è presente 1 moda. sono presenti più di 2 mode. non sono presenti mode. sono presenti 2 mode. . Una distribuzione di frequenza può essere. tutte le alternative. bimodale. unimodale. multimodale. In una distribuzione di frequenze. può esserci una sola moda. possono esserci più mode. possono esserci al massimo 3 mode. possono esserci al massimo 2 mode. Un istogramma cumulativo si costruisce usando le frequenze. cumulate. nessuna delle alternative. tutte le alternative. assolute. In un istogramma cumulativo primi gradini sono. alti come gli ultimi. più bassi degli ultimi. più alti degli ultimi. non c'è una regola fissa. . La funzione F(X) = P(x ≤𝑋) si riferisce ala probabilità che la nostra variabile assuma un valore: minore o uguale a un valore “X”. maggiore di X. uguale a X. tutte le alternative. La funzione di distribuzione. tutte le alternative. è una funzione cumulativa. è sempre crescente. ha valore iniziale 0 e valore finale 1. La funzione che rappresenta la probabilità che la variabile assuma un valore minore o uguale a un determinato valore X è detta. funzione di distribuzione. funzione di distinzione. funzione di distorsione. funzione di dispersione. Per calcolare il punteggio z applico la formula. z=(X-Xmedio)/dev. Standard. z=(Xmedio)/dev. Standard. z=(X-Xmedio)/varianza. z=(X+Xmedio)/dev. Standard. La formula (X-Xmedio)/dev. Standard permette di calcolare. il punteggio medio. il punteggio z. il range. i quantili. I punteggi z sono utili perché permettono di. tutte le alternative. confrontare variabili misurate con unità di misura diverse. confrontare i risultati ottenuti da un soggetto a due test diversi. conoscere quanto si discosta un punteggio dalla media della distribuzione. . In una distribuzione normale, i punteggi z maggiori di 2 sono considerati. piuttosto frequenti e tipici. i punteggi più frequenti. piuttosto rari e atipici. i punteggi medi. Se un soggetto ottiene un punteggio z = -1,7 significa che. il soggetto ha un punteggio medio di -1,7. il punteggio medio della distribuzione è -1,7. Il soggetto ha un punteggio inferiore di 1,7 deviazioni standard rispetto alla media. Il soggetto ha un punteggio superiore di 1,7 deviazioni standard rispetto alla media. Per calcolare il punteggio z di uno specifico punteggio x è necessario conoscere. entrambe le alternative. nessuna delle alternative. la media della variabile. la deviazione standard della variabile. Il punteggio z indica. il numero di quantili di cui un punteggio si discosta dalla media. il numero di percentili di cui un punteggio si discosta dalla media. il numero di deviazioni standard di cui un punteggio si discosta dalla media. il numero di deviazioni standard di cui un punteggio si discosta dalla mediana. . Il numero di deviazioni standard di cui un punteggio si discosta dalla media è. il punteggio z. il percentile. il range. il quantile. Nella distribuzione normale standard ha punteggio z = 0. la media. tutte le alternative. la mediana. la moda. Nella distribuzione normale standard. entrambe le alternative. nessuna delle alternative. media, mediana e moda hanno punteggio z = 0. circa il 68% dei punteggi è compreso tra z = -1 e z =1. La distribuzione normale standard. ha media 0 e deviazione standard 1. ha media 0 e deviazione standard 0. ha media 1 e deviazione standard 0. ha media 1 e deviazione standard 1. La curva dei frequenza dei punteggi z che assume una distribuzione normale è detta. dispersione normale standard. distribuzione normale standard. deviazione standard. standardizzazione. Le tabelle di significatività della distribuzione normale standard riportano. la percentuale di punteggi che sono maggiori di un determinato punto z. la percentuale di punteggi corretti. i valori della F di Fisher. i valori del chi quadro. Un punteggio ha deviazione standard = 0 quando. coincide con la media. coincide con la mediana. coincide con la moda. nessuna delle alternative. Nel rappresentare la relazione tra variabili il tipo di grafico viene scelto in base. al tipo di variabili. al numero di casi. alla frequenza delle variabili. alla significatività delle variabili. . Il grafico a barre è utilizzato per rappresentare la relazione tra. 2 variabili nominali. una variabile nominale e una quantitativa. 2 variabili quantitative. tutte le alternative. Si può rappresentare la relazione tra variabili quando ho. tutte le alternative. 2 variabili nominali. una variabile nominale e una quantitativa. 2 variabili quantitative. Il grafico di dispersione è utilizzato per rappresentare la relazione tra. 2 variabili quantitative. 2 variabili nominali. una variabile nominale e una quantitativa. tutte le alternative. Per rappresentare la relazione tra due variabili quantitative si utilizza. il grafico di dispersione. il grafico a barre. la funzione di distribuzione. l'istogramma. Per rappresentare la relazione tra due variabili nominali si utilizza. il grafico di dispersione. il grafico a barre. la funzione di distribuzione. l'istogramma. L'istogramma è utilizzato per rappresentare la relazione tra. una variabile nominale e una quantitativa. 2 variabili nominali. 2 variabili quantitative. tutte le alternative. Per rappresentare la relazione tra una variabile nominale e una variabile quantitativa si utilizza. l'istogramma. il grafico a barre. la funzione di distribuzione. il grafico di dispersione. . Nell'ultima riga di una tabella di contingenza ci sono. i totali marginali di riga. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. i totali marginali di colonna. Nell'ultima colonna di una tabella di contingenza ci sono. i totali marginali di riga. le frequenze congiunte. le frequenze congiunte. il totale dei casi. Nelle celle centrali di una tabella di contingenza ci sono. le frequenze congiunte. il totale dei casi. i totali marginali di colonna. il totale dei casi. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi sull’altra variabile è detto. grafico di dispersione. i totali marginali di riga. grafico a barre. i totali marginali di colonna. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi sull’altra variabile è detto. grafico di dispersione. istogramma. curva normale. entrambe le alternative. Un grafico di dispersione è adattato a rappresentare. la relazione tra due variabili. la frequenza di due variabili. la curva di dispersione di una variabile. le frequenze percentuali di due variabili. un grafico di dispersione. l'asse x riporta le frequenze, l'asse y riporta i punteggi sulla variabile. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi sull’altra variabile. l'asse x riporta i punteggi su una variabile, l'asse y riporta la deviazione standard. l'asse x riporta i punteggi su una variabile, l'asse Y riporta le frequenze. . Per rappresentare con un grafico a barre la relazione tra due variabili nominali. tutte le alternative. nessuna delle alternative. le barre riportano i punteggi ottenuti. le barre sono divise in blocchi che rappresentano le categorie di una variabile. Un buon grafico a barre contiene. poche categorie. molte categorie. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. . Per rappresentare con un grafico a barre la relazione tra due variabili nominali. le barre sono suddivise in base alle categorie della seconda variabile. più categorie di quante ne hanno le variabili. molte categorie vuote. le barre non tengono conto della seconda variabile. In un grafico a Barre. sull'asse x sono rappresentate le categorie di una variabile. l'asse x riporta le categorie di una variabile, l'asse Y riporta le frequenze. sull'asse y sono riportate le frequenze. l'asse x riporta i punteggi di una variabile, l'asse y riporta i punteggi dell'altra variabile. In un istogramma che rappresenta la relazione tra una variabile nominale e una variabile quantitativa. i punti sono vicini alla retta. i punti sono dispersi in modo casuale. l'asse x riporta le categorie della variabile nominale, le barre rappresentano i punteggi sulla variabile quantitativa. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi sull’altra variabile. Quando si devono rappresentare variabili con molti livelli si dovrebbe: dividere i livelli in sottogruppi. aggiungere altre categorie. accorpare logicamente i livelli. rappresentarli tutti nel dettaglio. Se rappresentiamo una variabile nominale e una quantitativa con un istogramma sarà utile: riportare una legenda per identificare le barre. usare lo stesso colore per tutte le barre. modificare la forma delle barre. usare solo i colori per distinguere le barre. . La matrice di correlazione. è uguale alla matrice di varianza-covarianza. contiene tutti 1 nella diagonale principale. contiene le varianze nella diagonale principale. è asimmetrica. Il valore della covarianza. entrambe le alternative. dipende dalla varianza delle variabili. dipende dall'unità di misura delle due variabili. nessuna delle alternative. Il coefficiente di correlazione. entrambe le alternative. nessuna delle alternative. più si avvicina a 0 e più forte è la relazione. più si avvicina a 1 e meno forte è la relazione. In caso di assenza di relazione lineare tra due variabili, il coefficiente di correlazione ha valore. 1. 0. 0.05. -1. Il valore numerico del coefficiente di correlazione indica. la forza della correlazione. la pendenza della retta. la significatività della correlazione. la direzione della correlazione. Il segno del coefficiente di correlazione indica. la direzione della correlazione. l'intensità della correlazione. la forza della correlazione. la significatività della correlazione. Il coefficiente di correlazione può avere. solo segno negativo. segno positivo e segno negativo. nessuna delle alternative. solo segno positivo. la matrice di varianza- covarianza. contiene le varianze nella diagonale principale. è asimmetrica. contiene tutti 1 nella diagonale principale. è uguale alla matrice di varianza-covarianza. Nella formula per calcolare il coefficiente r di Pearson si utilizza. la covarianza. solo la varianza di y. solo la varianza di x. la media. . La matrice che contiene tutti 1 nella diagonale principale è la matrice. di correlazione. di varianza-covarianza. di ANOVA. di regressione. Il valore della covarianza. nessuna delle alternative. non dipende dalla varianza delle variabili. entrambe le alternative. non dipende dall'unità di misura delle variabili. Il valore della covarianza. entrambe le alternative. dipende dalla varianza delle variabili. nessuna delle alternative. dipende dall'unità di misura delle due variabili. Se all'aumentare della variabile x, la variabile y diminuisce. è presente una correlazione negativa. non è possibile misurare la correlazione. non è presente una correlazione. è presente una correlazione positiva. Se al diminuire della variabile x, la variabile y diminuisce. è presente una correlazione positiva. è presente una correlazione negativa. non è presente una correlazione. è presente una correlazione inversa. . Se all'aumentare della variabile x, la variabile y aumenta. è presente una correlazione positiva. è presente una correlazione negativa. non è presente una correlazione. è presente una correlazione inversa. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 0. i punti sono dispersi in modo casuale. non è possibile individuare la retta. i punti sono vicini alla retta. i punti assumono forma a campana. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 1. i punti sono vicini alla retta. i punti sono dispersi in modo casuale. non è possibile individuare la retta. i punti assumono forma a campana. . Il valore della covarianza. entrambe le alternative. non dipende dall'unità di misura delle variabili. nessuna delle alternative. non dipende dalla varianza delle variabili. Il coefficiente di correlazione. entrambe le alternative. nessuna delle alternative. più si avvicina a 0 e meno è forte la relazione. più si avvicina a 1 e più è forte la relazione. Una ricerca ha rilevato un r = -0,84 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y diminuisce. Al crescere di y, x rimane costante. Al crescere di x, y rimane costante. Al crescere di x, y aumenta. Misurando la correlazione tra tempo passato a correre e calorie bruciate, ci si aspetta di ottenere un r di. 0.1. 0.9. -0.9. -0.1. Misurando la correlazione tra ore di deprivazione di sonno e livello di attenzione, ci si aspetta di ottenere un r. -0.8. 0.8. 0.1. -0.1. Una ricerca ha rilevato un r = -0,87 tra la variabile x e la variabile y. Ciò significa che. c'è una correlazione negativa debole tra le due variabili. c'è una forte correlazione negativa tra le due variabili. c'è una correlazione positiva debole tra le due variabili. c'è una forte correlazione positiva tra le due variabili. I coefficienti di correlazione sono utilizzati con i test psicologici per misurare. entrambe le alternative. la validità. nessuna delle alternative. l'attendibilità. Una ricerca ha rilevato un r = 0,92 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y aumenta. Al crescere di x, y diminuisce. Al crescere di y, x rimane costante. Al crescere di x, y rimane costante. La presenza di una correlazione tra due variabili. tutte le alternative. non indica quale variabile influenza l'altra. non prova la causalità della relazione. non chiarisce quale variabile è la causa e quale l'effetto. Se tra due variabili è presente una correlazione positiva. le due variabili aumentano o diminuiscono insieme. il coefficiente r è sempre significativo. le due variabili assumono entrambe solo valori positivi. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). Se tra due variabili è presente una correlazione positiva. le due variabili aumentano o diminuiscono insieme. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). le due variabili assumono entrambe solo valori positivi. il coefficiente r è sempre significativo. Il coefficiente di correlazione r di Pearson può essere utilizzato. con variabili a punteggio. con tutti i tipi di variabili. con variabili nominali con più di 2 categorie. con variabili ordinali. La presenza di una correlazione tra due variabili. nessuna delle alternative. prova la causalità della relazione. indica quale variabile influenza l'altra. chiarisce quale variabile è la causa e quale l'effetto. . Per sapere esattamente quanta è la varianza condivisa tra 2 variabili si calcola. il coefficiente di determinazione. la regressione. il coefficiente di correlazione. l'ANOVA. Il coefficiente che si basa sul calcolo dei ranghi è. r di Pearson. d di Cohen. Rho di Spearman. alfa di Cronbach. Il coefficiente di determinazione. può essere solo positivo. può essere maggiore di 1. può essere solo negativo. può essere sia negativo che positivo. Il coefficiente di determinazione si calcola. elevando al quadrato il coefficiente di correlazione. il coefficiente di correlazione. il coefficiente di correlazione diviso (n-1). con la radice quadrata del coefficiente di correlazione. Il coefficiente Rho di Spearman è utilizzato quando. la distribuzione dei punteggi è marcatamente asimmetrica. entrambe le alternative. nessuna delle alternative. i punteggi sono di tipo ordinale. Il coefficiente Rho di Spearman è utilizzato quando. nessuna delle alternative. la distribuzione dei punteggi è normale. i punteggi sono numerici. entrambe le alternative. Un coefficiente di determinazione di 1 indica che. le variabili condividono il 100% di varianza. le variabili non sono correlate. le variabili condividono l'1% di varianza. le variabili condividono lo 0,1% di varianza. In una popolazione statistica infinita. non è possibile ottenere la totalità dei punteggi. è possibile ottenere la totalità dei punteggi. è possibile elencare tutti i punteggi. non è mai utilizzata in ambito psicologico. In una popolazione statistica totalmente reperibile. è possibile ottenere la totalità dei punteggi. non è mai utilizzata in ambito psicologico. non è possibile ottenere la totalità dei punteggi. è possibile elencare tutti i punteggi. Una popolazione statistica può essere. entrambe le alternative. infinita. totalmente reperibile. nessuna delle alternative. Si definisce generalizzabilità il grado in cui i risultati di uno studio. eseguito su un campione possono essere estesi alla popolazione. eseguito oggi può essere esteso all'anno prossimo. eseguito sulla popolazione possono essere estesi al campione. eseguito su un campione possono essere estesi a tutti gli altri campioni. Il processo sistematico che seleziona i punteggi in modo che ogni punteggio della popolazione abbia la stessa possibilità di essere scelto è. la randomizzazione. la coerenza interna. l'arbitrarietà. la potenza statistica. Il campionamento in cui ogni punteggio ha la stessa probabilità di essere selezionato è quello. tutte le alternative. casuale. randomizzato. probabilistico. La deviazione standard delle medie dei campioni è. l'errore standard. la varianza. l'errore sistematico. l'intervallo di confidenza. Più è grande il campione. più è probabile che ci sia incertezza nella stima della media della popolazione. più è probabile che la sua media si avvicini a quella della popolazione. più è probabile che la sua media sia diversa da quella della popolazione. più è improbabile che la sua media si avvicini a quella della popolazione. Il campione randomizzato. non è affetto da manipolazione. è affetto da manipolazione. non produce stime affidabili. è arbitrariamente selezionato dal ricercatore. Un campione si dice rappresentativo quando. non riflette in modo accurato l'idea di campione che ha il ricercatore. riflette in modo accurato le caratteristiche della popolazione. riflette in modo accurato l'idea di campione che ha il ricercatore. non riflette in modo accurato le caratteristiche della popolazione. . Il campionamento in cui ogni unità di analisi ha una probabilità̀ individuabile e non uguale a zero di entrare a far parte del campione è detto. arbitrario. probabilistico. probabile. non probabilistico. Il campionamento probabilistico può essere. per clusters. tutte le alternative. casuale semplice. stratificato. Il campionamento stratificato è un tipo di campionamento. per quote. probabilistico. non probabilistico. a scelta ragionata. . Il campionamento probabilistico può essere. casuale semplice e stratificato. casuale semplice e per quote. stratificato e a scelta ragionata. per clusters e per quote. . Il campionamento per cluster è un tipo di campionamento. probabilistico. non probabilistico. a scelta ragionata. per quote. Il campionamento probabilistico può essere. stratificato e per clusters. stratificato e a scelta ragionata. casuale semplice e per quote. per clusters e per quote. Il campionamento NON probabilistico può essere. per quote e a scelta ragionata. casuale semplice e stratificato. stratificato e per clusters. stratificato e casuale semplice. Il campionamento per quote e a scelta ragionata sono tipi di campionamento. non probabilistico. randomizzato. probabile. probabilistico. . Il secondo assioma del calcolo probabilistico stabilisce che la probabilità di un evento certo è. uguale a 1. uguale a 0. minore di 1. imprevedibile. . La percentuale 45% a quanto corrisponde espressa in decimali?. 0.45. 0.045. 0.0045. 4.5. Il valore 0,1 espresso in percentuale diventa. 10%. 0.01%. 1%. 0.10%. Il primo assioma del calcolo probabilistico stabilisce che la probabilità di un evento impossibile è. uguale a 0. minore di 1. imprevedibile. uguale a 1. La probabilità condizionata Indica la probabilità che: essendosi verificato B si verifichi A. un evento C si presenti dopo A e B. non si verifichino né A né B. A e B si verifichino contemporaneamente. . La regola dell'addizione dice che: per un numero di esiti mutualmente escludenti fra loro, la somma delle probabilità è uno, quindi, l’interezza del nostro universo di possibilità. la probabilità di un evento è pari a 0. la probabilità di eventi disgiunti che si presenta in una particolare sequenza è il prodotto della probabilità di ciascun evento. la probabilità di un evento è pari a 1. La regola della moltiplicazione dice che: la probabilità di un evento è pari a 0. la probabilità di eventi disgiunti che si presenta in una particolare sequenza è il prodotto della probabilità di ciascun evento. la probabilità di un evento è pari a 1. per un numero di esiti mutualmente escludenti fra loro, la somma delle probabilità è uno, quindi, l’interezza del nostro universo di possibilità. Significatività statistica significa che i risultati. non sono dovuti a fattori casuali. sono accurati. non sono accurati. sono dovuti a fattori casuali. Per la significatività statistica sono importanti i concetti di: tutte le alternative. ipotesi nulla. nessuna delle alternative. intervallo di confidenza. la significatività statistica è importante per: il processo di verifica delle ipotesi. nessuna delle alternative. i soggetti della ricerca. la statistica descrittiva. Impostando un livello di significatività più restrittivo. riduco il rischio di errore di I tipo. riduco il rischio di errore di II tipo. non influisco sul rischio di errore di II tipo. aumento il rischio di errore di I tipo. Quando si accetta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. non si può decidere nulla sull'ipotesi alternativa. si accetta l'ipotesi alternativa. l'ipotesi alternativa è più probabile. Quando si rifiuta l'ipotesi nulla. si accetta l'ipotesi alternativa. non si può decidere nulla sull'ipotesi alternativa. si rifiuta l'ipotesi alternativa. l'ipotesi alternativa non è più valida. La popolazione definita dall'ipotesi nulla è quella in cui. la correlazione tra le due variabili è 0. la correlazione tra le due variabili non si può misurare. la correlazione tra le due variabili è 0,5. la correlazione tra le due variabili è 1. Nell'inferenza statistica. si può incorrere nell'errore di I tipo e di II tipo. si può incorrere solo nell'errore di I tipo. non si può incorrere in alcun errore. si può incorrere solo nell'errore di II tipo. non esiste alcuna relazione tra dimensione del cervello e intelligenza" è un esempio di. ipotesi falsa. ipotesi nulla. ipotesi alternata. ipotesi alternativa. . "esiste una relazione tra il tipo di diploma conseguito e il reddito" è un esempio di. ipotesi alternativa. ipotesi falsa. ipotesi vera. ipotesi nulla. L'errore standard è stimato. dalla deviazione standard del campione. dalla probabilità del campione. dalla significatività statistica. dalla media del campione. L'errore standard è stimato dividendo la deviazione standard. per la radice quadrata di N. per N-1. per N elevato al quadrato. per N. L'errore standard è. maggiore in campioni grandi. minore in campioni piccoli. indipendente dalla grandezza del campione. minore in campioni grandi. L'errore standard è. maggiore in campioni piccoli. indipendente dalla grandezza del campione. minore in campioni piccoli. maggiore in campioni grandi. Si accetta l'ipotesi alternativa se il valore del t calcolato. è maggiore del valore del t critico. nessuna delle alternative è valida. è inferiore al valore del t critico. non è statisticamente significativo. Stai facendo un t-test appaiato per vedere se una campagna pubblicitaria ha fatto aumentare la propensione a fare attività fisica in 2 comuni. Qual è la variabile indipendente?. prima e dopo la campagna pubblicitaria. nessuna delle alternative è valida. il punteggio di propensione all'attività fisica in uno dei due comuni. il punteggio di propensione all'attività fisica in entrambi i comuni. Si accetta l'ipotesi nulla se il valore del t calcolato. è inferiore al valore del t critico. è statisticamente significativo. è maggiore del valore del t critico. nessuna delle alternative è valida. Si rifiuta l'ipotesi alternativa se il valore del t calcolato. è inferiore al valore del t critico. nessuna delle alternative è valida. è statisticamente significativo. è maggiore del valore del t critico. In un disegno a misure ripetute, i diversi momenti temporali sono. la variabile indipendente. la variabile dipendente. possono sia la variabile dipendente che la variabile indipendente. la variabile interveniente. . La distribuzione t. tutte le alternative. varia a seconda dei gradi di libertà. si approssima alla normale in campioni molto ampi. è più appiattita della distribuzione normale se i campioni sono piccoli. Nel t-test per campioni correlati, i gradi di libertà si calcolano con. (N1-1)+(N2-1). N-1. radice quadrata di N. N+1. Se il valore del t calcolato è inferiore al valore del t critico. è falsificata l'ipotesi nulla. si accetta l'ipotesi nulla. si accetta l'ipotesi alternativa. si rifiuta l'ipotesi nulla. Se il valore del t calcolato è maggiore del valore del t critico. si rifiuta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. l'ipotesi nulla non è falsificata. si accetta l'ipotesi nulla. Si rifiuta l'ipotesi nulla se il valore del t calcolato. è maggiore del valore del t critico. nessuna delle alternative è valida. non è statisticamente significativo. è inferiore al valore del t critico. In un disegno di ricerca a misure ripetute utilizzerò. entrambe le alternative sono valide. il t-test per campioni correlati. il t-test per campioni indipendenti. nessuna delle alternative è valida. In un disegno a misure ripetute, i punteggi rilevati sono. la variabile dipendente. la variabile indipendente. possono sia la variabile dipendente che la variabile indipendente. la variabile interveniente. . Una ricerca in cui si somministra a un gruppo di soggetti un test sull'umore la mattina e la sera è. a campioni correlati. a campioni non correlati. a campioni indipendenti. nessuna delle alternative. Una ricerca che misura una variabile più volte su uno stesso gruppo di soggetti è detta. a misure ripetute. a campioni indipendenti. nessuna delle alternative. a misure indipendenti. Il disegno di ricerca a misure ripetute prevede l'utilizzo. nessuna delle alternative. di un solo gruppo di partecipanti misurati più volte. entrambe le alternative. di almeno 2 gruppi distinti di partecipanti. . Per valutare i cambiamenti nel corso del tempo in punteggi numerici ottenuti dagli stessi soggetti utilizzerò. il test del chi-quadro. il t-test per campioni indipendenti. il t-test per campioni correlati. il coefficiente di correlazione. . Per valutare le differenze sui punteggi numerici di due gruppi di soggetti si utilizza. il coefficiente di correlazione. il t-test per campioni indipendenti. il test del chi-quadro. il t-test per campioni correlati. Un disegno di ricerca per campioni indipendenti prevede l'utilizzo. di almeno due gruppi distinti di soggetti. di un unico gruppo di soggetti che non si conoscano tra loro. nessuna delle alternative è valida. di un unico gruppo di soggetti misurato più volte nel tempo. . Una ricerca in cui si confrontano le abilità di memoria di studenti dei prima elementare con quelle di studenti di quinta elementari è. a campioni indipendenti. a campioni correlati. a misure ripetute. tutte le alternative possono essere valide. Una ricerca in cui si confrontano i livelli di depressione di pazienti che assumono un farmaco con quelli di pazienti che assumono un placebo è. a campioni indipendenti. a misure ripetute. tutte le alternative possono essere valide. a campioni correlati. Il t-test può essere utilizzato se i dati sono. punteggi numerici. ordinali. tutte le alternative. nominali. La tecnica statistica che esamina se due gruppi di punteggi, provenienti da persone diverse, hanno medie significativamente differenti è. il t-test per campioni indipendenti. il t-test per campioni correlati. la regressione. la correlazione. Un test t per campioni indipendenti è appropriato per confrontare le medie misurate su: maschi e femmine. ragazzi prima e dopo una lezione. bambini la mattina e la sera. bambini prima e dopo il pranzo. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile indipendente?. scuola A e scuola B. i punteggi di entrambe le scuole. i punteggi della scuola A. i punteggi della scuola B. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile dipendente?. I punteggi della scuola A e della scuola B. scuola A e scuola B. nessuna delle alternative è valida. entrambe le alternative sono valide. I gradi di libertà nel t-test per campioni indipendenti si calcolano con. N-2. N-1. radice quadrata di N. N+2. Una ricerca che prevede un gruppo sperimentale e un gruppo di controllo è. a campioni indipendenti. tutte le alternative possono essere valide. a misure ripetute. a campioni correlati. In un test del chi-quadro se il valore calcolato è inferiore al valore critico. si falsifica l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi nulla. si accetta l'ipotesi alternativa. Per poter utilizzare il test del chi-quadro. ci devono essere almeno 2 categorie per ciascuna variabile. entrambe le alternativenessuna delle alternative. i dati devono essere nominali. nessuna delle alternative. . L'analisi che utilizza la tabella di contingenza è. l'ANOVA. il test del chi-quadro. il t-test per campioni correlati. il t-test per campioni indipendenti. L'analisi che confronta le frequenze osservate con le frequenze attese è. il test del chi-quadro. l'ANOVA. il t-test per campioni correlati. il t-test per campioni indipendenti. In una ricerca in cui donne con figli e donne senza figli sono confrontate sulla base dello status lavorativo (disoccupata, casalinga, lavoratrice) si utilizzerà. Il t-test per campioni correlati. il test del chi-quadro. il t-test per campioni indipendenti. l'ANOVA. Nel test del chi-quadro i gradi di libertà si calcolano con. radice quadrata di N. N-2. N-1. (n di colonne-1) x (n righe -1). . Per verificare se le frequenze dei casi in gruppi diversi differiscono tra loro viene utilizzato. il test del chi-quadro. il t-test per campioni indipendenti. l'ANOVA. il t-test per campioni correlati. In un test del chi-quadro se il valore calcolato è superiore al valore critico. si deve ripetere il test. si accetta l'ipotesi alternativa. si falsifica l'ipotesi alternativa. si accetta l'ipotesi nulla. Affinché il test del chi-quadro sia affidabile la numerosità all'interno di ogni singola cella deve essere. almeno 10. qualsiasi. almeno 5. almeno 2. In alternativa al test del chi-quadro si può utilizzare. il test della probabilità esatta di Fisher. il t-test per campioni correlati. l'ANOVA. la correlazione di Pearson. Il test della probabilità esatta di Fisher può essere utilizzato come alternativa. al chi-quadro. all'alfa di Cronbach. a r di Pearson. al Rho di Spearman. L'analisi che si può utilizzare con dati nominali (categorie) è. il chi-quadro. il t-test. tutte le alternative. l'ANOVA. Il test dei segni è l'equivalente non parametrico di. ANOVA a una via. ANOVA per misure ripetute. t-test per campioni indipendenti. t-test per dati appaiati. I test NON parametrici. possono essere usati se le assunzioni dei test parametrici sono violate. tutte le alternative. nessuna delle alternative. sono basati sulla distribuzione normale. . Se i punteggi si distribuiscono in modo molto asimmetrico, non approssimando affatto la distribuzione normale. è consigliabile utilizzare i test non parametrici. non si possono utilizzare i test non parametrici. si possono utilizzare solo i test parametrici. non si possono eseguire analisi statistiche. I test NON parametrici. spesso sono basati sui ranghi. prevedono il rispetto di numerose assunzioni sulla distribuzione della popolazione. presuppongono una distribuzione normale. sono sempre preferibili ai test parametrici. Se i punteggi si distribuiscono approssimando la distribuzione normale. è consigliabile utilizzare test parametrici. è consigliabile non effettuare analisi statistiche. è consigliabile utilizzare test NON parametrici. qualsiasi test fornirà un risultato non attendibile. Il test dei segni si basa sull'analisi dei. segni. valori mediani. ranghi. valori di frequenza. I test NON parametrici. non sono basati sulla distribuzione normale. nessuna delle alternative. non possono essere usati se le assunzioni dei test parametrici sono violate. tutte le alternative. Il test U di Mann Whitney è l'equivalente non parametrico di. t-test per campioni indipendenti. t-test per dati appaiati. ANOVA a una via. ANOVA per misure ripetute. Il test NON parametrico equivalente al t-test per campioni indipendenti è. il test U di Mann Whitney. il test di Kruskal-Wallis. il test di Friedman. Il test di Wilcoxon. . Il test NON parametrico equivalente al t-test per dati appaiati è. il test di Wilcoxon. il test U di Mann Whitney. il test di Kruskal-Wallis. il test di Friedman. Il test di Wilcoxon è l'equivalente non parametrico di. t-test per campioni indipendenti. ANOVA per misure ripetute. t-test per dati appaiati. ANOVA a una via. . Il test di Wilcoxon si basa sull'analisi dei. ranghi. segni. valori mediani. valori di frequenza. Le code alle quali ci si riferisce quando si parla dei test statistici a una o due code fanno riferimento a. distribuzione campionaria. la parte finale del test somministrato. nessuna delle alternative. linea di regressione. Il test a una coda. permette di ottenere risultati significativi con un campione più piccolo. è più conservativo rispetto al test a due code. permette di ottenere risultati significativi solo se il campione è molto grande. è sempre preferibile rispetto al test a due code. La variabile X è correlata positivamente con la variabile Y è un esempio di ipotesi. direzionale. non direzionale. tutte le alternative possono essere valide. nulla. La variabile X è correlata con la variabile Y è un esempio di ipotesi. non direzionale. nulla. tutte le alternative possono essere valide. direzionale. Con le ipotesi che NON stabiliscono la direzione della relazione tra le variabili. si utilizzano test a due code. si utilizzano test a una coda. si utilizzano test a una coda o a due code. non si possono utilizzare test statistici. I test statistici possono essere. a una coda e a due code. i test statistici non prevedono code. solo a due code. solo a una coda. Con le ipotesi che stabiliscono la direzione della relazione tra le variabili. si utilizzano test a due code. si utilizzano test a una coda. si utilizzano test a una coda o a due code. non si possono utilizzare test statistici. Il test per il rapporto tra varianze F. tutte le alternative. non può essere inferiore a 1. prevede il confronto con la coda destra della distribuzione. è un test a una coda. Il test F per la valutazione del rapporto tra varianze ha come obiettivo valutare. se i due campioni provengono dalla stessa popolazione. quale campione ha la media maggiore. se i due campioni sono attendibili. la correlazione tra le due varianze. Nel test del rapporto tra varianze. più grande è F, maggiore la differenza tra le due varianze. più grande F, minore la differenza tra le due varianze. più piccolo F, maggiore è la differenza tra le varianze. nessuna delle alternative. Il test per il rapporto tra varianze F. è un test a una coda. nessuna delle alternative è valida. è un test a due code. può essere a una coda o a due code. Prima di un t-test, per verificare che le varianze dei due campioni siano realmente simili. si calcola il parametro F. si calcola r di Pearson. si calcola il chi-quadro. si calcola la radice quadrata delle varianze. Nel test del rapporto tra varianze F i gradi di libertà sono calcolati. N del gruppo -1. N del gruppo + 1. N del gruppo -2. radice quadrata di N del gruppo. . Il test che prevede la divisione della varianza maggiore per la varianza minore è. chi-quadro. test F. U di Mann-Whitney. t-test. Il rapporto F viene calcolato dividendo. la varianza maggiore per la varianza minore. la media più bassa per la media più alta. la media più alta per la media più bassa. la varianza minore per la varianza maggiore. Quando ho una solo variabile indipendente e una indipendente userò: MANOVA. ANOCOVA. ANOVA a due vie. ANOVA a una via. In una ANOVA a una via i gradi di libertà per la varianza entro i gruppi (o errore) si calcolano. N-numero di gruppi. N + numero dei gruppi. N-1. N dei gruppi -1. In una ANOVA a una via i gradi di libertà totali corrispondono. alla somma dei gradi di libertà entro i gruppi e fra i gruppi. alla differenza tra i gradi di libertà tra i gruppi e entro i gruppi. ai gradi di libertà tra i gruppi diviso i gradi di libertà entro i gruppi. ai gradi di libertà tra i gruppi per i gradi di libertà entro i gruppi. Quando ho due variabili indipendenti e una indipendente userò: ANOVA a due vie. ANOVA a una via. inserisco nell'analisi delle covariate. analizzo più variabili dipendenti. L'ANOVA a misure ripetute si usa quando: lo stesso campione di soggetti viene misurato più di due volte in condizioni diverse. inserisco nell'analisi delle covariate. analizzo diversi campioni per la stessa condizione. analizzo diversi campioni per la stessa condizione. La MANOVA si usa quando: analizzo più variabili dipendenti. lo stesso campione di soggetti viene misurato più di due volte in condizioni diverse. analizzo diversi campioni per la stessa condizione. lo stesso campione di soggetti viene misurato più di due volte in condizioni diverse. Uso l'ANCOVA quando. inserisco nell'analisi delle covaraite. tutte le alternative. nominali. analizzo più variabili dipendenti. L'ANOVA può essere utilizzata se i dati sono. punteggi numerici. ordinali. solo punteggio vero. punteggio vero diviso errore. L'analisi che determina se la varianza tra i gruppi è significativamente diversa rispetto a quella derivante dall'oscillazione casuale dei dati è. l'ANOVA a una via. i gruppi rappresentano sia la variabile dipendente che la variabile indipendente. l'ANOVA per misure ripetute. i punteggi rappresentano sia la variabile dipendente che la variabile indipendente. In una ANOVA a una via si stima. non è mai presente. rappresenta l'effetto del trattamento. solo la varianza tra i gruppi. la varianza tra i gruppi e entro il gruppo. . In una ANOVA a una via, la varianza entro il gruppo. rappresenta l'oscillazione casuale nei punteggi del campione. la varianza tra i gruppi diviso la varianza entro il gruppo. la varianza tra i gruppi. non può essere stimata. In una ANOVA a una via. i punteggi rappresentano la variabile dipendente e i gruppi rappresentano la variabile indipendente. solo la varianza entro i gruppi. i punteggi rappresentano la variabile indipendente e i gruppi rappresentano la variabile dipendente. solo la varianza totale. In psicologia si assume che il punteggio osservato X sia costituito da. punteggio vero + errore. punteggio vero – errore. il chi-quadro. la regressione. . In una ANOVA a una via, l'oscillazione casuale nei punteggi del campione è stimata con. la varianza entro il gruppo. in tutti i gruppi deve esserci lo stesso numero di soggetti. la varianza totale. i gruppi devono essere almeno 4. In una ANOVA a una via. i gruppi sono indipendenti tra loro. le medie del numero di libri acquistati in un anno. i gruppi sono composti dalle stesse persone. nessuna delle alternative. . Quali dei seguenti test statistici implica il confronto delle varianze di 2 o più campioni?. analisi della varianza. analisi della variazione. è falsificata l'ipotesi nulla. si accetta l'ipotesi alternativa. Nell'ANOVA si accetta l'ipotesi nulla se il valore di F calcolato. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico. non è statisticamente significativo. Nell'ANOVA si accetta l'ipotesi alternativa se il valore di F calcolato. è inferiore al valore di F critico. è maggiore del valore di F critico. non è statisticamente significativo. nessuna delle alternative è valida. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile indipendente. t-test. le 4 regioni. chi-quadro. numero di libri acquistati in un anno. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile dipendente. numero di libri acquistati in un anno. nessuna delle alternative. le medie del numero di libri acquistati in un anno. le 4 regioni. Se il valore del parametro F calcolato nell'ANOVA è inferiore al valore di F critico. si accetta l'ipotesi nulla. l'ipotesi nulla non è falsificata. si rifiuta l'ipotesi alternativa. si rifiuta l'ipotesi nulla. Se il valore del parametro F calcolato nell'ANOVA è maggiore del valore di F critico. si rifiuta l'ipotesi nulla. è statisticamente significativo. si accetta l'ipotesi nulla. nessuna delle alternative è valida. Nell'ANOVA si rifiuta l'ipotesi alternativa se il valore di F calcolato. è inferiore al valore di F critico. non è statisticamente significativo. nessuna delle alternative è valida. è maggiore del valore di F critico. Nell'ANOVA si rifiuta l'ipotesi nulla se il valore di F calcolato. è maggiore del valore di F critico. è statisticamente significativo. è inferiore al valore di F critico. nessuna delle alternative è valida. Il t-test è un caso particolare di. ANOVA a una via. ANOVA multifattoriale. nessuna delle alternative. chi-quadro. In una ANOVA, l'espressione "livelli di trattamento" si riferisce. ai passaggi per condurre l'analisi. al numero di condizioni della variabile indipendente. ai gradi di libertà. al numero di condizioni della variabile dipendente. Nell'ANOVA a una via la tabella riassuntiva riporta. solo i gradi di libertà. tutte le alternative. solo le sorgenti di variazione. solo il parametro F. In una tabella riassuntiva dell'ANOVA a una via sono indicate le sorgenti di variazione. fra i gruppi, entro i gruppi e totale. fra condizioni, fra i soggetti, errore. fra i soggetti e totale. entro i gruppi e fra i soggetti. In una ANOVA a una via, se la variabile indipendente ha più di 2 condizioni. effettuerò i confronti multipli se F è significativo. effettuerò 3 ANOVA separate. effettuerò i confronti multipli se F non è significativo. non potrò effettuare mai i confronti multipli. In una ANOVA a una via è necessario effettuare i confronti multipli s. la variabile indipendente ha più di 2 condizioni. la variabile dipendente ha più di 2 condizioni. la variabile indipendente ha 2 condizioni. la variabile dipendente ha 2 condizioni. In una tabella riassuntiva dell'ANOVA per misure ripetute sono indicate le sorgenti di variazione. fra i gruppi e errore. fra i gruppi e entro i gruppi. fra condizioni, fra soggetti, errore. fra i soggetti e entro i soggetti. L'analisi che permette di valutare la varianza dovuta alle differenze individuali è. ANOVA per misure ripetute. regressione. chi-quadro. ANOVA a una via. Nell'ANOVA per misure ripetute i soggetti. sono valutati più volte. nessuna delle alternative. appartengono a gruppi distinti. entrambe le alternative. Una ricerca confronta le abilità di memoria utilizzando 3 strategie diverse di memorizzazione. La variabile indipendente è. le 3 strategie di memorizzazione. le medie dei gruppi. tutte le alternative. l'abilità di memoria. L'analisi in cui ogni soggetto fa da 'controllo' di sé stesso è l'ANOVA. per misure ripetute. multifattoriale. tutte le alternative. a una via. In una ANOVA per misure ripetute si possono studiare. effetti principali e dell'interazione. effetti della correlazione e principali. solo effetti principali e secondari. solo effetti dell'interazione e dell'indipendenza. Nel grafico dell'interazione in una ANOVA multifattoriale, le linee parallele suggeriscono che. l'interazione non è significativa. non si può interpretare l'interazione. l'interazione è significativa. non si possono interpretare gli effetti principali. Il grafico che viene utilizzato per rappresentare l'effetto dell'interazione nell'ANOVA è. un grafico con linee. un grafico a barre. un grafico a torta. un diagramma di dispersione. Nell'ANOVa, nel grafico che rappresenta una interazione NON significativa le linee. sono parallele. passano il più vicino possibile alla nuvola di punti. non sono parallele. non possono essere rappresentate. Nell'ANOVA, nel grafico che rappresenta una interazione significativa le linee. passano il più vicino possibile alla nuvola di punti. non sono parallele. non possono essere rappresentate. sono parallele. . In una ANOVA l'interazione è. l'effetto combinato delle due variabili indipendenti. sempre significativa. l'effetto combinato delle due variabili dipendenti. impossibile da calcolare. Con ANOVA 2 x 3 si intende che. la prima variabile indipendente ha 2 livelli e la seconda ne ha 3. ci sono 2 variabili dipendenti e 3 variabili indipendenti. la prima variabile dipendente ha 2 livelli e la seconda ne ha 3. ci sono 2 variabili indipendenti e 3 dipendenti. Effetti principali ed effetti dell'interazione si possono studiare con. ANOVA multifattoriale. ANOVA per misure ripetute. tutte le alternative. ANOVA a una via. Nell'ANOVA multifattoriale l'effetto di ciascuna variabile indipendente è detto. effetto principale. effetto della correlazione. effetto significativo. effetto dell'interazione. Nell'ANOVA multifattoriale l'effetto derivante dalla combinazione di variabili indipendenti è detto. effetto dell'interazione. effetto principale. effetto significativo. effetto della correlazione. . L'ANOVA multifattoriale si distingue dall'ANOVA a una via perché. considera 2 o più variabili indipendenti. entrambe le alternative. considera 2 o più variabili dipendenti. nessuna delle alternative. L'analisi che include lo studio dell'interazione è. l'ANOVA multifattoriale. il chi-quadro. l'ANOVA a una via. La correlazione. Nell'ANOVA multifattoriale è utilizzata quando si hanno. due variabili indipendenti e una variabile dipendente. due variabili indipendenti e due variabili dipendenti. tutte le alternative possono essere valide. due variabili dipendenti e una variabile indipendente. L'analisi che permette di misurare l'effetto combinato di due variabili indipendenti è. l'ANOVA multifattoriale. la correlazione. il chi-quadro. l'ANOVA a una via. Con i confronti multipli effettuati dopo l'ANOVA si vuole stabilire. quali sono le specifiche medie che differiscono significativamente. se c'è un effetto principale significativo. se c'è un'interazione significativa. tutte le alternative. In una ANOVA non è possibile stabilire quali fra le medie considerate differiscono dalle altre quando. le variabili indipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. In una ANOVA non è possibile stabilire direttamente quali fra le medie considerate differiscono dalle altre quando. le variabili indipendenti presentano 3 o più livelli di trattamento. le variabili dipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili dipendenti presentano 3 o più livelli di trattamento. I confronti multipli post-hoc. sono decisi dopo aver svolto l'ANOVA. sono decisi prima di iniziare la raccolta dati. tutte le alternative possono essere valide. sono decisi prima di aver condotto l'ANOVA. I confronti multipli pianificati. sono decisi prima di iniziare la raccolta dati. sono decisi dopo aver svolto l'ANOVA. tutte le alternative possono essere valide. sono decisi dopo aver rilevato una interazione significativa. Il test di Dunett e il test di Scheffé sono tipi di test per. effettuare i confronti multipli. per misurare l'affidabilità. per testare la correlazione. per effettuare la regressione. . I confronti multipli effettuati nell'ANOVA possono essere. entrambe le alternative. pianificati. nessuna delle alternative. post-hoc. . Per descrivere la retta di regressione è necessario conoscere. pendenza e intercetta. asimmetria e curtosi. varianza e gradi di libertà. varianza e media. La retta di regressione viene stimata attraverso il metodo. dei minimi quadrati. dei massimi quadrati. delle massime distanze. delle somme delle medie. . Il metodo dei minimi quadrati è utilizzato. nella regressione. nel campionamento. nell'ANOVA. nel chi-quadro. La retta di regressione. passa il più vicino possibile ai punti nel grafico di dispersione. si traccia unendo tutti i punti nel grafico di dispersione. tutte le alternative possono essere valide. passa il meno vicino possibile ai punti del grafico di dispersione. Quando si disegna una retta di regressione, nel grafico si rappresenta. la variabile predittore sull'asse orizzontale e la variabile criterio sull'asse verticale. la variabile predittore sull'asse verticale e la variabile criterio sull'asse orizzontale. tutte le alternative possono essere valide. la variabile x sull'asse verticale e la y sull'asse orizzontale. Il grafico di dispersione è utilizzato. nella correlazione e nella regressione. solo nella correlazione. solo nella regressione. nessuna delle alternative. La pendenza e l'intercetta sono stimate per descrivere. la retta di regressione. la distribuzione binomiale. la curva normale. la potenza statistica. . In una regressione la variabile Y è considerata. entrambe le alternative. la variabile criterio. nessuna delle alternative. la variabile dipendente. La regressione è una tecnica statistica che può essere utilizzata per. verificare l'effetto di un trattamento. fare delle previsioni. sapere se due medie sono significativamente diverse. confrontare le frequenze di 2 gruppi. La tecnica statistica che può essere utilizzata per stimare il valore di Y a partire da X è. il t-test. la regressione. l'ANOVA. il chi-quadro. In una regressione la variabile X è considerata. la variabile criterio. entrambe le alternative. la variabile dipendente. nessuna delle alternative. Il punto in cui la retta di regressione interseca l'asse verticale è. l'intercetta. la pendenza. l'errore di misura. il criterio. In una regressione la variabile X è considerata. entrambe le alternative. la variabile indipendente. nessuna delle alternative. il predittore. La retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione è. la retta di regressione. la retta di correlazione. la retta dell'interazione nell'ANOVA. la curva normale. La retta di regressione. è la retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione. è parallela alla curva normale. è la retta che rappresenta l'interazione in una ANOVA. coincide con la curva normale. In una regressione l'intercetta è definita come. il punto in cui la retta interseca l'asse verticale. il punto in cui la retta interseca l'asse orizzontale. la pendenza della retta. l'errore di misura. In una regressione la variabile Y è considerata. nessuna delle alternative. entrambe le alternative. la variabile indipendente. il predittore. La pendenza della retta di regressione è. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. l'intercetta. il criterio. l'errore di misura. Nella retta di regressione la pendenza indica. entrambe le alternative. nessuna delle alternative. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. quanto aumenta la Y all'aumentare di 1 unità della X. Per sapere quanto aumenta la variabile criterio all'aumentare di 1 unità della variabile predittore si utilizza. la media. la pendenza. l'intercetta. la varianza. . La correlazione e la regressione. sono simili ma hanno scopi diversi. sono due modi di chiamare la stessa tecnica. non hanno alcuna similarità. sono simili e hanno lo stesso scopo. Il coefficiente di regressione è. la pendenza della retta. il criterio. l'intercetta. il predittore. . Nella regressione, l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale è. la pendenza. il criterio. l'intercetta. il predittore. Se l'equazione di regressione è Y = -3 + 7X, la retta intersecherà l'asse X a. -3. 0. 7. 3. Se l'equazione di regressione è Y = 6 - 7X, all'aumentare di 1 unità di X la Y. diminuirà di 7. aumenterà di 0. aumenterà di 7. aumenterà di 6. Se l'equazione di regressione è Y = 5 + 4X, all'aumentare di 1 unità di X la Y. aumenterà di 4. aumenterà di 5. aumenterà di 0. diminuirà di 4. Se l'equazione di regressione è Y = 5 + 4X, la retta intersecherà l'asse X a. 5. -5. 0. 4. . Nell’equazione di regressione y= a + bx, la b rappresenta. pendenza. intercetta. variabile criterio. variabile predittore. Nell’equazione di regressione y= a + bx, la a rappresenta. intercetta. variabile predittore. pendenza. variabile criterio. Nell’equazione di regressione y= a + bx, la variabile y rappresenta. variabile criterio. variabile predittore. intercetta. pendenza. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di laurea è. l'intercetta. la variabile criterio. la pendenza. la variabile predittore. Nell’equazione di regressione y= a + bx, la variabile x rappresenta. variabile criterio. variabile predittore. intercetta. pendenza. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di maturità è. la variabile predittore. l'intercetta. la variabile criterio. la pendenza. La proporzione di varianza totale condivisa da due variabili è misurata con. il coefficiente di determinazione. il coefficiente di affidabilità. il coefficiente di correlazione. il coefficiente d di Cohen. Il coefficiente di determinazione è calcolato con. il coefficiente di correlazione elevato al quadrato. la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione diviso la deviazione standard. il coefficiente di correlazione diviso N. Il coefficiente di determinazione misura. la proporzione di varianza totale condivisa da due variabili. la varianza di una variabile. l'affidabilità di una variabile. la correlazione tra due variabili. Per misurare la dimensione degli effetti, il risultato del t-test si può trasformare in. coefficiente di correlazione. deviazione standard. alfa di Cronbach. media aritmetica. Per misurare la dimensione degli effetti in una ANOVA si utilizza. il coefficiente eta. l'alfa di Cronbach. la varianza. la devianza. Se il campione è grande, una relazione tra variabili. anche se piccola può essere statisticamente significativa. solo se grande non può essere statisticamente significativa. solo se grande può essere statisticamente significativa. anche se piccola non può essere statisticamente significativa. Per sapere se è ragionevole generalizzare alla popolazione i risultati ottenuti sul campione si utilizza. la significatività statistica. la dispersione. l'affidabilità. la dimensione dell'effetto. La dimensione dell'effetto può essere misura con. solo con la d di Cohen. nessuna delle alternative. il coefficiente di correlazione e la d di Cohen. solo con il coefficiente di correlazione. In una meta-analisi, si può calcolare la dimensione dell'effetto di uno studio. trasformando in punti z il livello di significatività. dividendo il livello di significatività per la d di Cohen. moltiplicando per N il livello di significatività. calcolando la radice quadrata del livello di significatività. In una meta-analisi, per calcolare la dimensione dell'effetto di ciascuno studio si può usare. tutte le alternative. la grandezza dell'effetto riportata nello studio. il risultato del t-test. il livello di significatività e la dimensione del campione. Affinché possa essere utilizzato in una meta-analisi uno studio deve riportare almeno. il livello di significatività e la dimensione del campione. il genere e l'età dei partecipanti. solo la dimensione del campione. solo il livello di significatività. Nella meta-analisi, l'uso del coefficiente di correlazione è consigliato perch. è più flessibile della d di Coehn. entrambe le alternative. può essere calcolato a partire da una varietà di test di significatività. nessuna delle alternative. Le meta-analisi cercano di stimare quali caratteristiche degli studi. entrambe le alternative. sono responsabili di piccole dimensioni dell'effetto. sono responsabili di grandi dimensioni dell'effetto. nessuna delle alternative. Il concetto centrale nella meta-analisi è. il campionamento. la distribuzione normale. il numero di studi utilizzati. la dimensione dell'effetto. La dimensione dell'effetto. può essere calcolata con la d di Cohen. corrisponde alla significatività statistica. non può essere misurata. non è usata nella meta-analisi. La tecnica che permette di analizzare il modello dei risultati di una serie di studi pubblicati e non pubblicati su una ipotesi di ricerca è. l'inferenza statistica. la meta-analisi. la regressione. la significatività statistica. La meta-analisi. entrambe le alternative. analizza gli studi già pubblicati su un tema. nessuna delle alternative. è uno studio di studi. La dimensione dell'effetto. è il concetto centrale nella meta-analisi. tutte le alternative. riguarda quanto è grande l'effetto di una variabile sull'altra. non coincide con la significatività statistica. . Valutare l'influenza di varie caratteristiche degli studi già svolti (es. campione, metodo) sulla forza della relazione tra variabili è l'obiettivo. della meta-analisi. dei test non parametrici. della regressione. dell'analisi della varianza. Valutare la forza della relazione tra variabili emersa in molti studi è l'obiettivo. della meta-analisi. dell'analisi della varianza. della regressione. dei test non parametrici. . In una meta-analisi è bene includere uno studio. entrambe le alternative. se contraddice l'ipotesi di ricerca. nessuna delle alternative. se conferma l'ipotesi di ricerca. In una meta-analisi la dimensione dell'effetto può essere valutata. entrambe le alternative. nessuna delle alternative. con la d di Cohen. con il coefficiente di correlazione. In una meta-analisi la dimensione dell'effetto può essere valutata. nessuna delle alternative. entrambe le alternative. con la deviazione standard. con l'alfa di Cronbach. In una meta-analisi è bene includere. sia gli studi pubblicati che quelli non pubblicati. solo gli studi non pubblicati. solo gli studi di autori noti. solo gli studi pubblicati. Gli studi selezionati per la meta-analisi possono essere. a favore o a sfavore dell'ipotesi di ricerca. solo a sfavore dell'ipotesi di ricerca. solo a favore dell'ipotesi di ricerca. non pertinenti all'ipotesi di ricerca. Verificare se le componenti di una scala psicologica stanno misurando la stessa cosa è l'obiettivo. dell'analisi di affidabilità. dell'analisi della varianza. dell'analisi della potenza statistica. della meta-analisi. La coerenza interna di una scala psicologica può essere misurata con. il metodo split-half. tutte le alternative. l'alfa di Cronbach. la correlazione tra singolo item e punteggio totale. L'affidabilità come coerenza interna riguarda. quanto le componenti di una scala psicologica misurano la stessa cosa. quanto è stabile nel tempo una scala psicologica nel tempo. quanto è valida una scala psicologica. quanto i soggetti valutano credibile una scala psicologica. La correlazione tra singolo item e punteggio totale su una scala psicologica è un modo per misurare. l'affidabilità. la potenza statistica. la significatività. la validità. Il coefficiente alfa di Cronbach misura. l'affidabilità. la potenza statistica. la validità. la significatività. Il metodo split-half viene utilizzato per misurare. l'affidabilità. la validità. la significatività. la potenza statistica. . Il risultato dell'affidabilità split-half. dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. non dipende dal modo in cui abbiamo suddiviso gli item. non prevede una suddivisione degli item. Il risultato dell'affidabilità misurata con l'alfa di Cronbach. non dipende dal modo in cui abbiamo suddiviso gli item. dipende dalla significatività statistica. prevede la correlazione di un item con il punteggio totale. dipende dal modo in cui abbiamo suddiviso gli item. Se una scala di misura è dotata di coerenza interna ciascun item. dovrebbe essere correlato con gli altri item della misura. non dovrebbe essere correlato con gli altri item della misura. non dovrebbe essere correlato con il punteggio totale. dovrebbe essere correlato con un solo altro item. L'affidabilità che correla il punteggio totale su metà item con il punteggio totale sull'altra metà degli item è detta. split-half. coefficiente eta. correlazione item totale. coefficiente di determinazione. La media di tutte le possibili affidabilità split-half che potrebbero essere calcolate per una scala è. l'alfa di Cronbach. la correlazione item totale. il coefficiente eta. l'affidabilità split-half. . Un indice della concordanza tra valutatori dovrebbe. entrambe le alternative. fornire un'indicazione della sovrapposizione tra le valutazioni. nessuna delle alternative. essere sensibile al fatto che i valutatori non variano i loro giudizi. . Per misurare la concordanza tra valutatori si utilizza. l'indice kappa. l'alfa di Cronbach. l'affidabilità split-half. la correlazione item totale. L'indice kappa è utilizzato per misurare. la concordanza tra valutatori. la difficoltà delle misure. la varianza delle misure. la coerenza interna. A minore variabilità nei dati corrisponderà. minor ampiezza dell'intervallo di confidenza. maggiore ampiezza della media. minore ampiezza della media. maggiore ampiezza dell'intervallo di confidenza. . Per calcolare l'intervallo di confidenza è necessario conoscere. l'errore standard. la dimensione dell'effetto. la mediana. la potenza statistica. Un intervallo di confidenza è un insieme di valori. che definiscono il range di una distribuzione. all'intero del quale è più probabile che giaccia il valore della popolazione. che definiscono l'affidabilità di una scala di misura. che indicano la dimensione dell'effetto di uno studio. Si considera adeguato un valore di potenza statistica di. 0.8. 0.3. 0.05. 0.001. All'aumentare della grandezza del campione. la potenza statistica diminuisce. nessuna delle alternative. la potenza statistica aumenta. la potenza statistica rimane invariata. All'aumentare della grandezza del livello di significatività. aumenta la probabilità di commettere un errore di I tipo. aumenta la probabilità di commettere un errore di II tipo. diminuisce la potenza statistica. diminuisce la probabilità di commettere un errore di I tipo. La potenza statistica diminuisce. se diminuisce la dimensione dell'effetto. tutte le alternative. se diminuisce il livello di significatività. se diminuisce la grandezza del campione. La potenza statistica di uno studio aumenta. tutte le alternative. se aumenta la grandezza del campione. se aumenta la dimensione dell'effetto. se aumenta il livello di significatività. All'aumentare della dimensione dell'effetto. la potenza statistica aumenta. la potenza statistica diminuisce. la potenza statistica rimane invariata. nessuna delle alternative. L'errore di II tipo è l'inverso. della potenza statistica. della significatività. dell'errore di I tipo. della dimensione dell'effetto. . All'aumentare della grandezza del livello di significatività. la potenza statistica aumenta. la potenza statistica rimane invariata. nessuna delle alternative. la potenza statistica diminuisce. L'errore di II tipo si verifica quando. di concludere che non c'è un effetto quando in realtà c'è. nessuna delle alternative. entrambe le alternative. viene attribuito al caso un andamento nei dati che è reale. . L'errore di I tipo è la probabilità. di concludere che non c'è un effetto quando in realtà c'è. di concludere che c'è un effetto quando in realtà non c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che c'è un effetto che in realtà c'è. La potenza statistica è l'inverso. dell'errore di II tipo. della significatività. della dimensione dell'effetto. dell'errore di I tipo. L'errore di I tipo si verifica quando. entrambe le alternative. nessuna delle alternative. si conclude che c'è un effetto quando in realtà non c'è. viene rilevato un andamento nei dati che è in realtà casuale. L'errore di II tipo è la probabilità. di concludere che non c'è un effetto che in realtà non c'è. di concludere che c'è un effetto quando in realtà non c'è. di concludere che c'è un effetto che in realtà c'è. di concludere che non c'è un effetto quando in realtà c'è. La probabilità di concludere che c'è un effetto quando in realtà non c'è è detta. errore di I tipo. nessuna delle alternative. potenza statistica. errore di II tipo. . La probabilità di concludere che non c'è un effetto quando in realtà c'è è detta. errore di II tipo. nessuna delle alternative. potenza statistica. errore di I tipo. . La probabilità che una ricerca sia in grado di rilevare un effetto nel campione selezionato quando l'effetto esiste (nella popolazione statistica) è. la potenza statistica. la significatività statistica. la distribuzione binomiale. la distribuzione normale. . I valori statisticamente significativi sono quelli. non compresi all'interno dell'intervallo di confidenza. nessuna delle alternative. compresi all'interno dell'intervallo di confidenza. che non hanno a che fare con gli intervalli di confidenza. L'insieme dei valori che al 95% includono la 'vera' media della popolazione è. l'intervallo di confidenza al 95%. il range dei valori al 95%. la potenza statistica al 95%. l'affidabilità dei valori al 95%. La potenza statistica è collegata a. tutte le alternative. il livello di significatività. l'ampiezza dei campioni. la dimensione dell'effetto. . La numerosità campionaria ottimale dipende. entrambe le alternative. nessuna delle alternative. da quanto siamo disposti a rischiare in termini di errore di I e II tipo. dalla dimensione dell'effetto dello studio. La dimensione dell'effetto e l'entità dell'errore di I e di II tipo determinano. la numerosità campionaria ottimale. la numerosità degli item di una scala di misura. la numerosità di studi da includere in una meta-analisi. la numerosità delle analisi statistiche da eseguire. |





