manganelli daypo unico
![]() |
![]() |
![]() |
Title of test:![]() manganelli daypo unico Description: manganelli daypo unico |




New Comment |
---|
NO RECORDS |
Come esito di una prova sperimentale svolta per verificare una ipotesi si può ottenere che. entrambe le alternative. l'ipotesi di partenza è confermata. l'ipotesi di partenza non è confermata. nessuna delle alternative. Nella Teoria Fisheriana, l'ipotesi nulla H0. ipotizza la presenza di differenze dovuto a un trattamento. entrambe le alternative. nessuna delle alternative. ipotizza l'assenza di differenze dovute a un trattamento. Nella Teoria Fisheriana, l'ipotesi nulla H1. ipotizza l'assenza di differenze dovute a un trattamento. entrambe le alternative. nessuna delle alternative. ipotizza la presenza di differenze dovuto a un trattamento. La Teoria Fisheriana ha come punto di partenza l'individuazione. dell'ipotesi alternativa. dell'ipotesi nulla. del campione da testare. del test statistico. La probabilità che si presenti un errore del primo tipo è detta. errore standard. significatività. potenza. varianza. Se come risultato di un esperimento otteniamo un valore di significatività inferiore a 0,05. falsifichiamo l'ipotesi alternativa. nessuna delle alternative. confermiamo l'ipotesi nulla. falsifichiamo l'ipotesi nulla. Se come risultato di un esperimento otteniamo un valore di significatività superiore a 0,05. nessuna delle alternative. confermiamo l'ipotesi nulla. confermiamo l'ipotesi alternativa. falsifichiamo l'ipotesi nulla. La probabilità di falsificare l'ipotesi nulla quando questa è falsa è detta. significatività. varianza. potenza. test statistico. La potenza dipende da: numerosità del campione. quanto è la differenza minima che riteniamo non trascurabile da un punto di vista pratico. tutte le alternative. variabilità della variabile misurata. La potenza è. La probabilità di falsificare l'ipotesi nulla quando questa è falsa. la variabilità dei dati nel campione. la forza del legame tra due variabili. La probabilità che si presenti un errore del primo tipo. Quando si traggono conclusioni attraverso una prova sperimentale gli errori decisionali. possono essere falsi positivi o falsi negativi. possono essere solo falsi negativi. possono essere solo falsi positivi. non possono verificarsi. Le scale di misura in psicologia possono essere. nominali. tutte le alternative. a intervalli o rapporti equivalenti. ordinali. Una scala di misura in cui i numeri sono definiti in modo che la differenza tra i punteggi indica l’ampiezza dell’intervallo che li separa è detta. nominale. nessuna delle alternative. a intervalli equivalenti. ordinale. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e uno 0 assoluto è detta. a intervalli equivalenti. nominale. a rapporti equivalenti. ordinale. Una caratteristica è definita variabile se. può essere misurata solo con metodi qualitativi. si manifesta in una sola modalità. si manifesta in almeno due modi diversi. non può essere misurata. La grandezza di una casa in metri quadri è su scala. a intervalli equivalenti. nominale. ordinale. a rapporti equivalenti. Una scala di misura in cui i numeri rappresentano la distanza da uno 0 assoluto non arbitrario è detta. a intervalli equivalenti. a rapporti equivalenti. ordinale. nominale. Una caratteristica è definita costante se. può essere misurata solo con metodi qualitativi. non può essere misurata. si manifesta in una sola modalità. si manifesta in almeno due modalità. Una scala di misura costituita da numeri disposti in modo da riflettere una graduatoria è detta. ordinale. a intervalli equivalenti. a rapporti equivalenti. nominale. La scala di misura ordinale. nessuna delle alternative. ha intervalli tra i numeri della stessa ampiezza. colloca i casi in categorie non ordinabili. permette di ordinare i valori dal più piccolo al più grande. Nella scala di misura nominale le categorie. non possono essere ordinate. non indicano una quantità. entrambe le alternative. nessuna delle alternative. La scala di misura nominale. di tipo quantitativo. non viene utilizzata in statistica. di tipo qualitativo. è utilizzata per i punteggi ai test. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e non ha uno 0 assoluto è detta. nominale. a rapporti equivalenti. a intervalli equivalenti. ordinale. La variabile "Paese di origine" che ha come modalità "Italia; altro Paese Europeo; altro Paese Extra-europeo" è misurata su scala. ordinale. a intervalli equivalenti. a rapporti equivalenti. nominale. La somma di tutte le frequenze è uguale. alla media del campione. alla mediana del campione. alla varianza del campione. alla numerosità del campione. La frequenza è. il numero delle unità statistiche in cui si presenta una modalità di una variabile. il conteggio di quanto spesso una cosa si verifica all'interno dei nostri dati. entrambe le alternative. nessuna delle alternative. Si può calcolare la frequenza di variabili su scala. a intervalli equivalenti. nominale. tutte le alternative. ordinale. Il numero di volte in cui si presenta un punteggio o una modalità di risposta è. la frequenza. la media. la varianza. il range. Per una variabile quantitativa è possibile calcolare. le frequenze percentuali. tutte le alternative. le frequenze cumulate. le frequenze assolute. La somma delle frequenze di una categoria e di tutte le precedenti è. la frequenza percentuale. la frequenza assoluta. nessuna delle alternative. la frequenza cumulata. La frequenza espressa come percentuale sul totale delle frequenze è. nessuna delle alternative. la frequenza assoluta. la frequenza cumulata. la frequenza percentuale. Per variabili quantitative si possono utilizzare. nessuna delle alternative. grafici a barre. grafici a torta. istogrammi. Per variabili qualitative o nominali si possono utilizzare. entrambe le alternative. grafici a barre. grafici a torta. nessuna delle alternative. Dividendo la somma dei punteggi per il loro numero si ottiene. la moda. la varianza. la mediana. la media (in paniere: la mediana). Il punteggio o categoria più frequente di una variabile è. la varianza. la media. la mediana. la moda. La mediana è. la somma dei punteggi diviso il loro numero. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. Il punteggio o categoria più frequente di una variabile. la differenza tra il punteggio più grande e il punteggio più piccolo. La mediana è. il valore che bipartisce la distribuzione. il valore non inferiore a metà dei valori e non superiore all'altra metà. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. tutte le alternative. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo è. la moda. il range. la mediana. la media. La media è un indice di. dispersione. significatività. tendenza centrale. frequenza. La varianza è un indice di. significatività. tendenza centrale. dispersione. frequenza. Con le variabili nominali o qualitative si può calcolare. la media. la varianza. nessuna delle alternative. la mediana. Con le variabili nominali o qualitative si può calcolare. la media. tutte le alternative. la mediana. la moda. La somma degli scarti dalla media elevati al quadrato divisa per il numero di punteggi è. la devianza media. il range. la mediana. la varianza. La varianza. tutte le alternative. è un indice di dispersione. è la somma delle deviazioni dalla media elevate al quadrato divisa per il numero dei punteggi. considera tutti i punteggi, non solo quelli estremi. l'intervallo dal punteggio più grande al punteggio più piccolo di una variabile è. la deviazione standard. il range. la varianza. la devianza media. Il range. tutte le alternative. è l'intervallo dal punteggio più grande a quello più piccolo. è molto influenzato dai casi estremi. non considera tutti i punteggi, ma solo quelli estremi. La skewness. può essere positiva. indica quanto la distribuzione è asimmetrica. può essere negativa. tutte le alternative. La curtosi indica. quanto una distribuzione è simmetrica rispetto al punto mediano. la varianza della distribuzione normale. se la curva è più ripida o più piatta rispetto alla distribuzione normale. la media della distribuzione normale. La skewness indica. la media della distribuzione normale. la varianza della distribuzione normale. quanto una distribuzione è simmetrica rispetto al punto mediano. se la curva è più ripida o più piatta rispetto alla distribuzione normale. L'indice che fornisce informazioni circa la simmetria di una distribuzione di punteggi è. la skewness. la curtosi. la varianza. la devianza. Per sapere se una curva di discosta dalla distribuzione normale utilizzo i valori. solo dell'asimmetria. nessuna delle alternative. dell'asimmetria (skewness) e della curtosi. solo della curtosi. In una curva normale. punteggi estremi e punteggi intorno alla media hanno frequenze simili. nessuna delle alternative. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. In una curva perfettamente normale. media, mediana e moda coincidono. mediana e moda coincidono. media e mediana coincidono. media e moda coincidono. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. nessuna delle alternative. sull'asse Y sono riportati i punteggi. sull'asse X sono riportate le frequenze. sull'asse Y sono riportate le frequenze. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. sull'asse X sono riportate le frequenze. sull'asse Y sono riportati i punteggi. nessuna delle alternative. sull'asse X sono riportati i punteggi. L'asimmetria (skewness) si ha quando. ci sono più punteggi alla sinistra della moda. nessuna delle alternative. entrambe le alternative. ci sono più punteggi alla destra della moda. La curva normale si caratterizza per. essere simmetrica. tutte le alternative. avere valori di media, mediana e moda che coincidono. essere a forma di campana. L'indice di posizione che indica la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse all'interno di una distribuzione ordinata è detto. deviazione standard. quantile. varianza. media. I quantili. dividono la distribuzione in n parti uguali. tutte le alternative. sono indici di posizione. indicano la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse. Sono tipologie di quantili. tutte le alternative. i percentili. i decili. i quartili. La curtosi. tutte le alternative. può essere negativa. può essere positiva. indica se la curva è più ripida o più piatta rispetto alla distribuzione normale. Una distribuzione di frequenza può essere. tutte le alternative. bimodale. unimodale. multimodale. In una distribuzione di frequenze. possono esserci al massimo 3 mode. possono esserci al massimo 2 mode. possono esserci più mode. può esserci una sola moda. Una distribuzione di frequenze è definita multimodale quando. sono presenti 2 mode. non sono presenti mode. è presente 1 moda. sono presenti più di 2 mode. Per sapere qual è il quoziente di intelligenza del 70% della popolazione calcolo. la media. la varianza. la deviazione standard. i percentili. i valori che dividono la distribuzione in 100 parti uguali sono detti. decili. percentuali. decimi. percentili. Quale degli indici di tendenza centrale coincide con il cinquantesimo percentile?. nessuna delle alternative. la mediana. la media. la moda. La mediana coincide con. il quinto decile. il cinquantesimo percentile. tutte le alternative. il secondo quartile. Per calcolare il primo quartile. individuo il valore della posizione del primo quantile nelle frequenze assolute. individuo il valore della posizione del primo quantile nelle frequenze cumulate. è necessario conoscere la mediana. è necessario conoscere la varianza. In una distribuzione dei risultati di un test il venticinquesimo percentile coincide con il punteggio 45. Ciò significa che. il 45% dei soggetti ottiene un punteggio al massimo di 25. il punteggio 45 divide in due parti uguali la distribuzione. il 25% dei soggetti ottiene un punteggio maggiore di 45. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 45. In una distribuzione dei risultati di un test il settantesimo percentile coincide con il punteggio 90. Ciò significa che. il punteggio 90 divide in due parti uguali la distribuzione. il 70% dei soggetti ottiene un punteggio maggiore di 90. il 90% dei soggetti ottiene un punteggio al massimo di 70. il 70% dei soggetti ottiene un punteggio che arriva al massimo a 90. In una distribuzione dei risultati di un test il primo quartile coincide con il punteggio 20. Ciò significa che. il 25% dei soggetti ottiene un punteggio maggiore di 20. il 20% dei soggetti ottiene un punteggio al massimo di 25. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 20. il punteggio 20 divide in due parti uguali la distribuzione. I percentili permettono di. indicare la collocazione di un soggetto rispetto al resto del campione. nessuna delle alternative. entrambe le alternative. esprimere il punteggio ottenuto da un soggetto rispetto a quello ottenuto dal resto del campione. La funzione di distribuzione. ha valore iniziale 0 e valore finale 1. tutte le alternative. è sempre crescente. è una funzione cumulativa. La funzione che rappresenta la probabilità che la variabile assuma un valore minore o uguale a un determinato valore X è detta. funzione di distorsione. funzione di distinzione. funzione di distribuzione. funzione di dispersione. Per calcolare il punteggio z applico la formula. z=(X-Xmedio)/dev. Standard. z=(X-Xmedio)/varianza. z=(X+Xmedio)/dev. Standard. z=(Xmedio)/dev. Standard. La deviazione standard. entrambe le alternative. nessuna delle alternative. è la deviazione media dalla media. è l'unità di misura standard in statistica. Se un soggetto ottiene un punteggio z = -1,7 significa che. il punteggio medio della distribuzione è -1,7. il soggetto ha un punteggio medio di -1,7. Il soggetto ha un punteggio inferiore di 1,7 deviazioni standard rispetto alla media. Il soggetto ha un punteggio superiore di 1,7 deviazioni standard rispetto alla media. L'indice che misura la quantità media della quale i punteggi differiscono dal punteggio medio è. la media. il quantile. il range. la deviazione standard. La deviazione standard misura. la quantità media della quale i punteggi differiscono dal punteggio più elevato. la quantità media della quale i punteggi differiscono dal punteggio medio. la quantità media della quale i punteggi differiscono dal punteggio mediano. la quantità media della quale i punteggi differiscono dal punteggio più basso. La deviazione standard. assume l'unità di misura delle variabili sulle quali è calcolata. tutte le alternative. è la deviazione media dalla media. è l'unità di misura standard in statistica. La radice quadrata delle deviazioni dalla media al quadrato è. il range. la varianza. il quantile. la deviazione standard. Il punteggio z indica. il numero di deviazioni standard di cui un punteggio si discosta dalla mediana. il numero di percentili di cui un punteggio si discosta dalla media. il numero di deviazioni standard di cui un punteggio si discosta dalla media. il numero di quantili di cui un punteggio si discosta dalla media. Il numero di deviazioni standard di cui un punteggio si discosta dalla media è. il punteggio z. il percentile. il range. il quantile. La formula (X-Xmedio)/dev. Standard permette di calcolare. i quantili. il punteggio z. il range. il punteggio medio. I punteggi z sono utili perché permettono di. conoscere quanto si discosta un punteggio dalla media della distribuzione. confrontare i risultati ottenuti da un soggetto a due test diversi. confrontare variabili misurate con unità di misura diverse. tutte le alternative. In una distribuzione normale, i punteggi z maggiori di 2 sono considerati. i punteggi più frequenti. piuttosto rari e atipici. piuttosto frequenti e tipici. i punteggi medi. Per calcolare il punteggio z di uno specifico punteggio x è necessario conoscere. nessuna delle alternative. la deviazione standard della variabile. entrambe le alternative. la media della variabile. Se un soggetto ottiene un punteggio z = 1,5 significa che. il soggetto ha un punteggio medio di 1,5. Il soggetto ha un punteggio inferiore di 1,5 deviazioni standard rispetto alla media. Il soggetto ha un punteggio superiore di 1,5 deviazioni standard rispetto alla media. il punteggio medio della distribuzione è 1,5. Le tabelle di significatività della distribuzione normale standard riportano. i valori del chi quadro. la percentuale di punteggi corretti. i valori della F di Fisher. la percentuale di punteggi che sono maggiori di un determinato punto z. Nella distribuzione normale standard ha punteggio z = 0. la media. la mediana. la moda. tutte le alternative. Nella distribuzione normale standard. nessuna delle alternative. media, mediana e moda hanno punteggio z = 0. entrambe le alternative. circa il 68% dei punteggi è compreso tra z = -1 e z =1. La distribuzione normale standard. ha media 1 e deviazione standard 1. ha media 1 e deviazione standard 0. ha media 0 e deviazione standard 0. ha media 0 e deviazione standard 1. La curva dei frequenza dei punteggi z che assume una distribuzione normale è detta. distribuzione normale standard. standardizzazione. dispersione normale standard. deviazione standard. La deviazione standard di un punteggio coincide con la media della distribuzione è. -1. non calcolabile. 1. 0. Un punteggio ha deviazione standard = 0 quando. coincide con la moda. nessuna delle alternative. coincide con la mediana. coincide con la media. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi su l'altra variabile è detto. grafico a barre. istogramma. curva normale. grafico di dispersione. Nelle celle centrali di una tabella di contingenza ci sono. i totali marginali di riga. il totale dei casi. le frequenze congiunte. i totali marginali di colonna. Nell'ultima colonna di una tabella di contingenza ci sono. le frequenze congiunte. il totale dei casi. i totali marginali di riga. i totali marginali di colonna. Nell'ultima riga di una tabella di contingenza ci sono. i totali marginali di colonna. il totale dei casi. i totali marginali di riga. le frequenze congiunte. In un grafico di dispersione. l'asse x riporta i punteggi su una variabile, l'asse Y riporta le frequenze. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi su l'altra variabile. l'asse x riporta i punteggi su una variabile, l'asse y riporta la deviazione standard. l'asse x riporta le frequenze, l'asse y riporta i punteggi sulla variabile. Per rappresentare la relazione tra una variabile nominale e una variabile quantitativa si utilizza. il grafico di dispersione. l'istogramma. la funzione di distribuzione. il grafico a barre. L'istogramma è utilizzato per rappresentare la relazione tra. 2 variabili quantitative. una variabile nominale e una quantitativa. 2 variabili nominali. tutte le alternative. Per rappresentare la relazione tra due variabili nominali si utilizza. il grafico a barre. il grafico di dispersione. la funzione di distribuzione. l'istogramma. Il grafico a barre è utilizzato per rappresentare la relazione tra. una variabile nominale e una quantitativa. 2 variabili nominali. 2 variabili quantitative. tutte le alternative. Per rappresentare la relazione tra due variabili quantitative si utilizza. l'istogramma. la funzione di distribuzione. il grafico a barre. il grafico di dispersione. Il grafico di dispersione è utilizzato per rappresentare la relazione tra. tutte le alternative. 2 variabili quantitative. una variabile nominale e una quantitativa. 2 variabili nominali. Si può rappresentare la relazione tra variabili quando ho. 2 variabili nominali. tutte le alternative. una variabile nominale e una quantitativa. 2 variabili quantitative. Nella rappresentare la relazione tra variabili il tipo di grafico viene scelto in base. alla frequenza delle variabili. alla significatività delle variabili. al numero di casi. al tipo di variabili. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi su l'altra variabile è detto. nessuna delle alternative. entrambe le alternative. grafico di dispersione. scatterplot. Per rappresentare con un grafico a barre la relazione tra due variabili nominali. le barre riportano i punteggi ottenuti. le barre non tengono conto della seconda variabile. nessuna delle alternative. le barre sono suddivise in base alle categorie della seconda variabile. In un istogramma che rappresenta la relazione tra una variabile nominale e una variabile quantitativa. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. l'asse x riporta le categorie della variabile nominale, le barre rappresentano i punteggi sulla variabile quantitativa. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi su l'altra variabile. In un grafico a barre. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. l'asse x riporta i punteggi di una variabile, l'asse y riporta i punteggi dell'altra variabile. l'asse x riporta le categorie di una variabile, l'asse Y riporta le frequenze. Un buon grafico a barre contiene. più categorie di quante ne hanno le variabile. poche categorie. molte categorie vuote. molte categorie. Per rappresentare con un grafico a barre la relazione tra due variabili nominali. le barre sono divise in blocchi che rappresentano le categorie di una variabile. sull'asse x sono rappresentate le categorie di una variabile. sull'asse y sono riportate le frequenze. tutte le alternative. Il valore della covarianza. nessuna delle alternative. non dipende dall'unità di misura delle variabili. entrambe le alternative. non dipende dalla varianza delle variabili. Il valore della covarianza. dipende dalla varianza delle variabili. entrambe le alternative. nessuna delle alternative. dipende dall'unità di misura delle due variabili. Il coefficiente di correlazione r di Pearson può essere utilizzato. con variabili a punteggio. con variabili nominali con più di 2 categorie. con tutti i tipi di variabili. con variabili ordinali. Se all'aumentare della variabile x, la variabile y diminuisce. è presente una correlazione positiva. non è presente una correlazione. non è possibile misurare la correlazione. è presente una correlazione negativa. Se al diminuire della variabile x, la variabile y diminuisce. non è presente una correlazione. è presente una correlazione inversa. è presente una correlazione negativa. è presente una correlazione positiva. Se all'aumentare della variabile x, la variabile y aumenta. non è presente una correlazione. è presente una correlazione positiva. è presente una correlazione inversa. è presente una correlazione negativa. Se tra due variabili è presente una correlazione positiva. il coefficiente r è sempre significativo. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). le due variabili aumentano o diminuiscono insieme. le due variabili assumono entrambe solo valori positivi. La matrice che contiene tutti 1 nella diagonale principale è la matrice. di ANOVA. di regressione. di correlazione. di varianza-covarianza. Quali informazioni sono incluse nel coefficiente di regressione?. entrambe le alternative. la pendenza. nessuna delle alternative. l'adattamento. Se tra due variabili è presente una correlazione positiva. le due variabili assumono entrambe solo valori positivi. le due variabili aumentano o diminuiscono insieme. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). il coefficiente r è sempre significativo. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 0. i punti sono dispersi in modo casuale. i punti assumono forma a campana. i punti sono vicini alla retta. non è possibile individuare la retta. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 1. i punti assumono forma a campana. i punti sono dispersi in modo casuale. i punti sono vicini alla retta. non è possibile individuare la retta. Il coefficiente di correlazione. più si avvicina a 0 e meno è forte la relazione. nessuna delle alternative. entrambe le alternative. più si avvicina a 1 e più è forte la relazione. Il coefficiente di correlazione. entrambe le alternative. più si avvicina a 1 e meno forte è la relazione. nessuna delle alternative. più si avvicina a 0 e più forte è la relazione. In caso di assenza di relazione lineare tra due variabili, il coefficiente di correlazione ha valore. 1. -1. 0. 0.05. Il valore numerico del coefficiente di correlazione indica. la direzione della correlazione. la forza della correlazione. la pendenza della retta. la significatività della correlazione. Nella formula per calcolare il coefficiente r di Pearson si utilizza. solo la varianza di y. la media. la covarianza. solo la varianza di x. Misurando la correlazione tra ore di deprivazione di sonno e livello di attenzione, ci si aspetta di ottenere un r. 0.1. -0.1. -0.8. 0.8. La matrice di correlazione. è asimmetrica. contiene tutti 1 nella diagonale principale. è uguale alla matrice di varianza-covarianza. contiene le varianze nella diagonale principale. Una ricerca ha rilevato un r = 0,92 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y aumenta. Al crescere di x, y diminuisce. Al crescere di x, y rimane costante. Al crescere di y, x rimane costante. la matrice di varianza- covarianza. è asimmetrica. contiene le varianze nella diagonale principale. è uguale alla matrice di varianza-covarianza. contiene tutti 1 nella diagonale principale. La relazione tra due variabili può essere rappresentata con. un istogramma. grafico di dispersione. un grafico a barre. un grafico a torta. Un grafico di dispersione è adattato a rappresentare. la curva di dispersione di una variabile. la relazione tra due variabili. le frequenze percentuali di due variabili. la frequenza di due variabili. Il segno del coefficiente di correlazione indica. la forza della correlazione. la significatività della correlazione. la direzione della correlazione. l'intensità della correlazione. Una ricerca ha rilevato un r = -0,84 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y aumenta. Al crescere di x, y rimane costante. Al crescere di x, y diminuisce. Al crescere di y, x rimane costante. Una ricerca ha rilevato un r = -0,87 tra la variabile x e la variabile y. Ciò significa che. c'è una forte correlazione positiva tra le due variabili. c'è una forte correlazione negativa tra le due variabili. c'è una correlazione negativa debole tra le due variabili. c'è una correlazione positiva debole tra le due variabili. Il coefficiente di correlazione può avere. solo segno negativo. solo segno positivo. nessuna delle alternative. segno positivo e segno negativo. Misurando la correlazione tra tempo passato a correre e calorie bruciate, ci si aspetta di ottenere un r di. 0.1. -0.1. 0.9. -0.9. Il coefficiente che si basa sul calcolo dei ranghi è. alfa di Cronbach. d di Cohen. r di Pearson. Rho di Spearman. Per sapere esattamente quanta è la varianza condivisa tra 2 variabili si calcola. l'ANOVA. il coefficiente di determinazione. la regressione. il coefficiente di correlazione. I coefficienti di correlazione sono utilizzati con i test psicologici per misurare. nessuna delle alternative. l'attendibilità. la validità. entrambe le alternative. Il coefficiente di determinazione indica. la dipendenza di una variabile dall'altra. la correlazione tra due variabili. quanta varianza è condivisa da due variabili. l'affidabilità di una variabile. Il coefficiente di determinazione si calcola. 1- il coefficiente di correlazione. elevando al quadrato il coefficiente di correlazione. con la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione diviso (n-1). Il coefficiente di determinazione. può essere sia negativo che positivo. può essere solo positivo. può essere maggiore di 1. può essere solo negativo. Un coefficiente di determinazione di 1 indica che. le variabili condividono lo 0,1% di varianza. le variabili non sono correlate. le variabili condividono il 100% di varianza. le variabili condividono l'1% di varianza. La presenza di una correlazione tra due variabili. nessuna delle alternative. chiarisce quale variabile è la causa e quale l'effetto. indica quale variabile influenza l'altra. prova la causalità della relazione. Il coefficiente è utilizzato quando. entrambe le alternative. i punteggi sono di tipo ordinale. nessuna delle alternative. la distribuzione dei punteggi è marcatamente asimmetrica. La presenza di una correlazione tra due variabili. non prova la causalità della relazione. non indica quale variabile influenza l'altra. non chiarisce quale variabile è la causa e quale l'effetto. tutte le alternative. Il coefficiente è utilizzato quando. entrambe le alternative. nessuna delle alternative. i punteggi sono numerici. la distribuzione dei punteggi è normale. Una popolazione statistica può essere. totalmente reperibile. nessuna delle alternative. entrambe le alternative. infinita. In una popolazione statistica infinita. non è mai utilizzata in ambito psicologico. è possibile elencare tutti i punteggi. non è possibile ottenere la totalità dei punteggi. è possibile ottenere la totalità dei punteggi. Il processo sistematico che seleziona i punteggi in modo che ogni punteggio della popolazione abbia la stessa possibilità di essere scelto è. la randomizzazione. la coerenza interna. l'arbitrarietà. la potenza statistica. Il campionamento in cui ogni punteggio ha la stessa probabilità di essere selezionato è quello. tutte le alternative. randomizzato. probabilistico. casuale. La deviazione standard delle medie dei campioni è. l'errore sistematico. la varianza. l'errore standard. l'intervallo di confidenza. Più è grande il campione. più è probabile che la sua media sia diversa da quella della popolazione. più è probabile che la sua media si avvicini a quella della popolazione. più è probabile che ci sia incertezza nella stima della media della popolazione. più è improbabile che la sua media si avvicini a quella della popolazione. Il campione randomizzato. non è affetto da manipolazione. è arbitrariamente selezionato dal ricercatore. non produce stime affidabili. è affetto da manipolazione. Il campionamento probabilistico può essere. casuale semplice e per quote. stratificato e a scelta ragionata. per clusters e per quote. stratificato e per clusters. Si definisce generalizzabilità il grado in cui i risultati di uno studio. eseguito su un campione possono essere estesi a tutti gli altri campioni. eseguito su un campione possono essere estesi alla popolazione. eseguito oggi può essere esteso all'anno prossimo. eseguito sulla popolazione possono essere estesi al campione. Un campione si dice rappresentativo quando. riflette in modo accurato le caratteristiche della popolazione. non riflette in modo accurato le caratteristiche della popolazione. non riflette in modo accurato l'idea di campione che ha il ricercatore. riflette in modo accurato l'idea di campione che ha il ricercatore. Il campionamento in cui ogni unità di analisi ha una probabilità̀ individuabile e non uguale a zero di entrare a far parte del campione è detto. probabilistico. probabile. arbitrario. non probabilistico. Il campionamento probabilistico può essere. per clusters. stratificato. tutte le alternative. casuale semplice. Il campionamento stratificato è un tipo di campionamento. per quote. probabilistico. non probabilistico. a scelta ragionata. Il campionamento per cluster è un tipo di campionamento. probabilistico. a scelta ragionata. non probabilistico. per quote. Il campionamento probabilistico può essere. per clusters e per quote. casuale semplice e stratificato. casuale semplice e per quote. stratificato e a scelta ragionata. Il campionamento NON probabilistico può essere. stratificato e per clusters. per quote e a scelta ragionata. stratificato e casuale semplice. casuale semplice e stratificato. Il campionamento per quote e a scelta ragionata sono tipi di campionamento. probabile. non probabilistico. randomizzato. probabilistico. Il primo assioma del calcolo probabilistico stabilisce che la probabilità di un evento impossibile è. uguale a 1. imprevedibile. uguale a 0. minore di 1. Il valore 0,1 espresso in percentuale diventa. 0.01%. 10%. 0.10%. 1%. La percentuale 45% a quanto corrisponde espressa in decimali?. 0.045. 4.5. 0.45. 0.0045. Il secondo assioma del calcolo probabilistico stabilisce che la probabilità di un evento certo è. imprevedibile. uguale a 1. uguale a 0. minore di 1. Significatività statistica significa che i risultati. non sono dovuti a fattori casuali. sono dovuti a fattori casuali. sono accurati. non sono accurati. "non esiste alcuna relazione tra dimensione del cervello e intelligenza" è un esempio di. ipotesi alternata. ipotesi nulla. ipotesi falsa. ipotesi alternativa. "esiste una relazione tra il tipo di diploma conseguito e il reddito" è un esempio di. ipotesi vera. ipotesi nulla. ipotesi falsa. ipotesi alternativa. La popolazione definita dall'ipotesi nulla è quella in cui. la correlazione tra le due variabili è 0,5. la correlazione tra le due variabili è 1. la correlazione tra le due variabili è 0. la correlazione tra le due variabili non si può misurare. Quando si rifiuta l'ipotesi nulla. non si può decidere nulla sull'ipotesi alternativa. si rifiuta l'ipotesi alternativa. si accetta l'ipotesi alternativa. l'ipotesi alternativa non è più valida. Quando si accetta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. non si può decidere nulla sull'ipotesi alternativa. si accetta l'ipotesi alternativa. l'ipotesi alternativa è più probabile. Nell'inferenza statistica. non si può incorrere in alcun errore. si può incorrere solo nell'errore di II tipo. si può incorrere nell'errore di I tipo e di II tipo. si può incorrere solo nell'errore di I tipo. Impostando un livello di significatività più restrittivo. riduco il rischio di errore di I tipo. non influisco sul rischio di errore di II tipo. riduco il rischio di errore di II tipo. aumento il rischio di errore di I tipo. L'errore standard è stimato dividendo la deviazione standard. per N elevato al quadrato. per N-1. per la radice quadrata di N. per N. L'errore standard è stimato. dalla media del campione. dalla significatività statistica. dalla probabilità del campione. dalla deviazione standard del campione. L'errore standard è. maggiore in campioni grandi. minore in campioni piccoli. indipendente dalla grandezza del campione. maggiore in campioni piccoli. L'errore standard è. maggiore in campioni grandi. minore in campioni piccoli. indipendente dalla grandezza del campione. minore in campioni grandi. Una ricerca che misura una variabile più volte su uno stesso gruppo di soggetti è detta. nessuna delle alternative. a campioni indipendenti. a misure indipendenti. a misure ripetute. Una ricerca in cui si somministra a un gruppo di soggetti un test sull'umore la mattina e la sera è. a campioni correlati. a campioni non correlati. a campioni indipendenti. nessuna delle alternative. Per valutare i cambiamenti nel corso del tempo in punteggi numerici ottenuti dagli stessi soggetti utilizzerò. il t-test per campioni indipendenti. il t-test per campioni correlati. il coefficiente di correlazione. il test del chi-quadro. Il disegno di ricerca a misure ripetute prevede l'utilizzo. nessuna delle alternative. di un solo gruppo di partecipanti misurati più volte. entrambe le alternative. di almeno 2 gruppi distinti di partecipanti. Stai facendo un t-test appaiato per vedere se una campagna pubblicitaria ha fatto aumentare la propensione a fare attività fisica in 2 comuni. Qual è la variabile indipendente?. nessuna delle alternative è valida. prima e dopo la campagna pubblicitaria. il punteggio di propensione all'attività fisica in entrambi i comuni. il punteggio di propensione all'attività fisica in uno dei due comuni. Si accetta l'ipotesi alternativa se il valore del t calcolato. nessuna delle alternative è valida. è maggiore del valore del t critico. è inferiore al valore del t critico. non è statisticamente significativo. Si rifiuta l'ipotesi alternativa se il valore del t calcolato. è maggiore del valore del t critico. è inferiore al valore del t critico. è statisticamente significativo. nessuna delle alternative è valida. Si rifiuta l'ipotesi nulla se il valore del t calcolato. è maggiore del valore del t critico. non è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore del t critico. Si accetta l'ipotesi nulla se il valore del t calcolato. è inferiore al valore del t critico. è statisticamente significativo. è maggiore del valore del t critico. nessuna delle alternative è valida. Se il valore del t calcolato è maggiore del valore del t critico. si accetta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. si rifiuta l'ipotesi nulla. l'ipotesi nulla non è falsificata. Se il valore del t calcolato è inferiore al valore del t critico. si rifiuta l'ipotesi nulla. si accetta l'ipotesi alternativa. è falsificata l'ipotesi nulla. si accetta l'ipotesi nulla. Nel t-test per campioni correlati, i gradi di libertà si calcolano con. N+1. (N1-1)+(N2-1). N-1. radice quadrata di N. La distribuzione t. varia a seconda dei gradi di libertà. è più appiattita della distribuzione normale se i campioni sono piccoli. tutte le alternative. si approssima alla normale in campioni molto ampi. In un disegno di ricerca a misure ripetute utilizzerò. entrambe le alternative sono valide. il t-test per campioni correlati. nessuna delle alternative è valida. il t-test per campioni indipendenti. In un disegno a misure ripetute, i diversi momenti temporali sono. la variabile interveniente. la variabile indipendente. la variabile dipendente. possono sia la variabile dipendente che la variabile indipendente. In un disegno a misure ripetute, i punteggi rilevati sono. la variabile indipendente. la variabile dipendente. la variabile interveniente. possono sia la variabile dipendente che la variabile indipendente. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile indipendente?. i punteggi della scuola B. scuola A e scuola B. i punteggi di entrambe le scuole. i punteggi della scuola A. Per valutare le differenze sui punteggi numerici di due gruppi di soggetti si utilizza. il t-test per campioni indipendenti. il coefficiente di correlazione. il t-test per campioni correlati. il test del chi-quadro. Un disegno di ricerca per campioni indipendenti prevede l'utilizzo. di un unico gruppo di soggetti misurato più volte nel tempo. di un unico gruppo di soggetti che non si conoscano tra loro. di almeno due gruppi distinti di soggetti. nessuna delle alternative è valida. Una ricerca che prevede un gruppo sperimentale e un gruppo di controllo è. a campioni correlati. tutte le alternative possono essere valide. a campioni indipendenti. a misure ripetute. Una ricerca in cui si confrontano le abilità di memoria di studenti dei prima elementare con quelle di studenti di quinta elementari è. a misure ripetute. a campioni indipendenti. tutte le alternative possono essere valide. a campioni correlati. Una ricerca in cui si confrontano i livelli di depressione di pazienti che assumono un farmaco con quelli di pazienti che assumono un placebo è. a campioni correlati. tutte le alternative possono essere valide. a misure ripetute. a campioni indipendenti. La tecnica statistica che esamina se due gruppi di punteggi, provenienti da persone diverse, hanno medie significativamente differenti è. la regressione. il t-test per campioni correlati. il t-test per campioni indipendenti. la correlazione. Un test t per campioni indipendenti è appropriato per confrontare le medie misurate su: bambini la mattina e la sera. maschi e femmine. bambini prima e dopo il pranzo. ragazzi prima e dopo una lezione. I gradi di libertà nel t-test per campioni indipendenti si calcolano con. N-1. N+2. radice quadrata di N. N-2. Il t-test può essere utilizzato se i dati sono. punteggi numerici. ordinali. tutte le alternative. nominali. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile dipendente?. entrambe le alternative sono valide. I punteggi della scuola A e della scuola B. nessuna delle alternative è valida. scuola A e scuola B. Nel test del chi-quadro i gradi di libertà si calcolano con. (n di colonne-1) x (n righe -1). radice quadrata di N. N-1. N-2. In una ricerca in cui donne con figli e donne senza figli sono confrontate sulla base dello status lavorativo (disoccupata, casalinga, lavoratrice) si utilizzerà. il t-test per campioni correlati. il t-test per campioni indipendenti. l'ANOVA. il test del chi-quadro. Affinché il test del chi-quadro sia affidabile la numerosità all'interno di ogni singola cella deve essere. almeno 2. qualsiasi. almeno 5. almeno 10. Per verificare se le frequenze dei casi in gruppi diversi differiscono tra loro viene utilizzato. il t-test per campioni indipendenti. il test del chi-quadro. il t-test per campioni correlati. l'ANOVA. In un test del chi-quadro se il valore calcolato è superiore al valore critico. si falsifica l'ipotesi alternativa. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa. In un test del chi-quadro se il valore calcolato è inferiore al valore critico. si falsifica l'ipotesi nulla. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa. L'analisi che utilizza le tabella di contingenza è. l'ANOVA. il test del chi-quadro. il t-test per campioni correlati. il t-test per campioni indipendenti. L'analisi che confronta le frequenze osservate con le frequenze attese è. il test del chi-quadro. l'ANOVA. il t-test per campioni correlati. il t-test per campioni indipendenti. Per poter utilizzare il test del chi-quadro. nessuna delle alternative. ci devono essere almeno 2 categorie per ciascuna variabile. i dati devono essere nominali. entrambe le alternative. L'analisi che si può utilizzare con dati nominali (categorie) è. tutte le alternative. il t-test. il chi-quadro. l'ANOVA. In alternativa al test del chi-quadro si può utilizzare. la correlazione di Pearson. l'ANOVA. il test della probabilità esatta di Fisher. il t-test per campioni correlati. Il test della probabilità esatta di Fisher può essere utilizzato come alternativa. a r di Pearson. all'alfa di Cronbach. al Rho di Spearman. al chi-quadro. La variabile X è correlata con la variabile Y è un esempio di ipotesi. direzionale. non direzionale. nulla. tutte le alternative possono essere valide. La variabile X è correlata positivamente con la variabile Y è un esempio di ipotesi. nulla. direzionale. tutte le alternative sono valide. non direzionale. I test statistici possono essere. solo a due code. a una coda e a due code. solo a una coda. i test statistici non prevedono code. Il test a una coda. è sempre preferibile rispetto al test a due code. permette di ottenere risultati significativi solo se il campione è molto grande. è più conservativo rispetto al test a due code. permette di ottenere risultati significativi con un campione più piccolo. Con le ipotesi che stabiliscono la direzione della relazione tra le variabili. si utilizzano test a una coda o a due code. non si possono utilizzare test statistici. si utilizzano test a due code. si utilizzano test a una coda. Con le ipotesi che NON stabiliscono la direzione della relazione tra le variabili. non si possono utilizzare test statistici. si utilizzano test a una coda o a due code. si utilizzano test a due code. si utilizzano test a una coda. Le code alle quali ci si riferisce quando si parla dei test statistici a una o due code fanno riferimento a. distribuzione campionaria. nessuna delle alternative. la parte finale del test somministrato. linea di regressione. Se i punteggi si distribuiscono approssimando la distribuzione normale. è consigliabile utilizzare test parametrici. è consigliabile utilizzare test NON parametrici. qualsiasi test fornirà un risultato non attendibile. è consigliabile non effettuare analisi statistiche. I test NON parametrici. possono essere usati se le assunzioni dei test parametrici sono violate. tutte le alternative. sono basati sulla distribuzione normale. nessuna delle alternative. Se i punteggi si distribuiscono in modo molto asimmetrico, non approssimando affatto la distribuzione normale. non si possono utilizzare i test non parametrici. non si possono eseguire analisi statistiche. si possono utilizzare solo i test parametrici. è consigliabile utilizzare i test non parametrici. I test NON parametrici. spesso sono basati sui ranghi. sono sempre preferibili ai test parametrici. prevedono il rispetto di numerose assunzioni sulla distribuzione della popolazione. presuppongono una distribuzione normale. Il test di Wilcoxon è l'equivalente non parametrico di. ANOVA a una via. t-test per campioni indipendenti. t-test per dati appaiati. ANOVA per misure ripetute. Il test NON parametrico equivalente al t-test per dati appaiati è. il test di Wilcoxon. il test di Friedman. il test U di Mann Whitney. il test di Kruskal-Wallis. Il test U di Mann Whitney è l'equivalente non parametrico di. t-test per dati appaiati. ANOVA a una via. ANOVA per misure ripetute. t-test per campioni indipendenti. Il test NON parametrico equivalente al t-test per campioni indipendenti è. il test di Kruskal-Wallis. il test di Friedman. il test U di Mann Whitney. il test di Wilcoxon. I test NON parametrici. tutte le alternative. non sono basati sulla distribuzione normale. non possono essere usati se le assunzioni dei test parametrici sono violate. nessuna delle alternative. Nel test del rapporto tra varianze F i gradi di libertà sono calcolati. radice quadrata di N del gruppo. N del gruppo -2. N del gruppo -1. N del gruppo +1. Prima di un t-test, per verificare che le varianze dei due campioni siano realmente simili. si calcola la radice quadrata delle varianze. si calcola r di Pearson. si calcola il chi-quadro. si calcola il parametro F. Il test per il rapporto tra varianze F. può essere a una coda o a due code. nessuna delle alternative è valida. è un test a una coda. è un test a due code. Il test che prevede la divisione della varianza maggiore per la varianza minore è. U di Mann-Whitney. t-test. chi-quadro. test F. Il rapporto F viene calcolato dividendo. la media più alta per la media più bassa. la media più bassa per la media più alta. la varianza maggiore per la varianza minore. la varianza minore per la varianza maggiore. Il test per il rapporto tra varianze F. è un test a una coda. tutte le alternative. non può essere inferiore a 1. prevede il confronto con la coda destra della distribuzione. Nel test del rapporto tra varianze. più grande F, minore la differenza tra le due varianze. più grande è F, maggiore la differenza tra le due varianze. nessuna delle alternative. più piccolo F, maggiore è la differenza tra le varianze. Il test F per la valutazione del rapporto tra varianze ha come obiettivo valutare. la correlazione tra le due varianze. quale campione ha la media maggiore. se i due campioni sono attendibili. se i due campioni provengono dalla stessa popolazione. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile dipendente. nessuna delle alternative. numero di libri acquistati in un anno. le 4 regioni. le medie del numero di libri acquistati in un anno. Quali dei seguenti test statistici implica il confronto delle varianze di 2 o più campioni?. analisi della varianza. chi-quadro. analisi della variazione. t-test. Se il valore del parametro F calcolato nell'ANOVA è inferiore al valore di F critico. è falsificata l'ipotesi nulla. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla. si accetta l'ipotesi alternativa. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile indipendente. le 4 regioni. numero di libri acquistati in un anno. nessuna delle alternative. le medie del numero di libri acquistati in un anno. L'analisi che determina se la varianza tra i gruppi è significativamente diversa rispetto a quella derivante dall'oscillazione casuale dei dati è. il chi-quadro. l'ANOVA a una via. l'ANOVA per misure ripetute. la regressione. In psicologia si assume che il punteggio osservato X sia costituito da. solo punteggio vero. punteggio vero + errore. punteggio vero diviso errore. punteggio vero - errore. In una ANOVA a una via. i gruppi devono essere almeno 4. in tutti i gruppi deve esserci lo stesso numero di soggetti. i gruppi sono composti dalle stesse persone. i gruppi sono indipendenti tra loro. In una ANOVA a una via, l'oscillazione casuale nei punteggi del campione è stimata con. la varianza totale. la varianza tra i gruppi diviso la varianza entro il gruppo. la varianza tra i gruppi. la varianza entro il gruppo. In una ANOVA a una via, la varianza entro il gruppo. rappresenta l'effetto del trattamento. non può essere stimata. non è mai presente. rappresenta l'oscillazione casuale nei punteggi del campione. In una ANOVA a una via si stima. solo la varianza totale. solo la varianza tra i gruppi. la varianza tra i gruppi e entro il gruppo. solo la varianza entro i gruppi. In una ANOVA a una via. i punteggi rappresentano la variabile dipendente e i gruppi rappresentano la variabile indipendente. i punteggi rappresentano la variabile indipendente e i gruppi rappresentano la variabile dipendente. i punteggi rappresentano sia la variabile dipendente che la variabile indipendente. i gruppi rappresentano sia la variabile dipendente che la variabile indipendente. In una ANOVA a una via i gradi di libertà per la varianza entro i gruppi (o errore) si calcolano. N + numero dei gruppi. N dei gruppi -1. N-1. N-numero di gruppi. L'ANOVA può essere utilizzata se i dati sono. tutte le alternative. punteggi numerici. nominali. ordinali. Se il valore del parametro F calcolato nell'ANOVA è maggiore del valore di F critico. si rifiuta l'ipotesi alternativa. l'ipotesi nulla non è falsificata. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla. Nell'ANOVA si accetta l'ipotesi nulla se il valore di F calcolato. è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico. Nell'ANOVA si rifiuta l'ipotesi nulla se il valore di F calcolato. nessuna delle alternative è valida. è inferiore al valore di F critico. non è statisticamente significativo. è maggiore del valore di F critico. Nell'ANOVA si rifiuta l'ipotesi alternativa se il valore di F calcolato. è maggiore del valore di F critico. è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. Nell'ANOVA si accetta l'ipotesi alternativa se il valore di F calcolato. non è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico. Nell'ANOVA a una via la tabella riassuntiva riporta. solo i gradi di libertà. tutte le alternative. solo il parametro F. solo le sorgenti di variazione. In una tabella riassuntiva dell'ANOVA a una via sono indicate le sorgenti di variazione. fra i gruppi, entro i gruppi e totale. fra condizioni, fra i soggetti, errore. entro i gruppi e fra i soggetti. fra i soggetti e totale. Il t-test è un caso particolare di. ANOVA multifattoriale. ANOVA a una via. nessuna delle alternative. chi-quadro. In una ANOVA, l'espressione "livelli di trattamento" si riferisce. ai gradi di libertà. al numero di condizioni della variabile indipendente. ai passaggi per condurre l'analisi. al numero di condizioni della variabile dipendente. In una ANOVA a una via è necessario effettuare i confronti multipli s. la variabile indipendente ha più di 2 condizioni. la variabile indipendente ha 2 condizioni. la variabile dipendente ha più di 2 condizioni. la variabile dipendente ha 2 condizioni. In una ANOVA a una via, se la variabile indipendente ha più di 2 condizioni. effettuerò i confronti multipli se F non è significativo. non potrò effettuare mai i confronti multipli. effettuerò i confronti multipli se F è significativo. effettuerò 3 ANOVA separate. In una ANOVA a una via i gradi di libertà totali corrispondono. alla somma dei gradi di libertà entro i gruppi e fra i gruppi. ai gradi di libertà tra i gruppi diviso i gradi di libertà entro i gruppi. ai gradi di libertà tra i gruppi per i gradi di libertà entro i gruppi. alla differenza tra i gradi di libertà tra i gruppi e entro i gruppi. L'analisi in cui ogni soggetto fa da 'controllo' di se stesso è l'ANOVA. tutte le alternative. per misure ripetute. multifattoriale. a una via. L'analisi che permette di valutare la varianza dovuta alle differenze individuali è. chi-quadro. regressione. ANOVA a una via. ANOVA per misure ripetute. In una tabella riassuntiva dell'ANOVA per misure ripetute sono indicate le sorgenti di variazione. fra i gruppi e errore. fra condizioni, fra soggetti, errore. fra i soggetti e entro i soggetti. fra i gruppi e entro i gruppi. Una ricerca confronta le abilità di memoria utilizzando 3 strategie diverse di memorizzazione. La variabile indipendente è. le medie dei gruppi. l'abilità di memoria. le 3 strategie di memorizzazione. tutte le alternative. Nell'ANOVA per misure ripetute i soggetti. appartengono a gruppi distinti. nessuna delle alternative. sono valutati più volte. entrambe le alternative. Nell'ANOVA multifattoriale l'effetto derivante dalla combinazione di variabili indipendenti è detto. effetto dell'interazione. effetto della correlazione. effetto significativo. effetto principale. In una ANOVA per misure ripetute si possono studiare. effetti della correlazione e principali. solo effetti dell'interazione e dell'indipendenza. effetti principali e dell'interazione. solo effetti principali e secondari. In una ANOVA l'interazione è. l'effetto combinato delle due variabili dipendenti. l'effetto combinato delle due variabili indipendenti. impossibile da calcolare. sempre significativa. Effetti principali e effetti dell'interazione si possono studiare con. ANOVA per misure ripetute. ANOVA multifattoriale. ANOVA a una via. tutte le alternative. Con ANOVA 2 x 3 si intende che. ci sono 2 variabili indipendenti e 3 dipendenti. ci sono 2 variabili dipendenti e 3 variabili indipendenti. la prima variabile indipendente ha 2 livelli e la seconda ne ha 3. la prima variabile dipendente ha 2 livelli e la seconda ne ha 3. Nell'ANOVA, nel grafico che rappresenta una interazione significativa le linee. passano il più vicino possibile alla nuvola di punti. sono parallele. non possono essere rappresentate. non sono parallele. Nell'ANOVA, nel grafico che rappresenta una interazione NON significativa le linee. sono parallele. non sono parallele. non possono essere rappresentate. passano il più vicino possibile alla nuvola di punti. Il grafico che viene utilizzato per rappresentare l'effetto dell'interazione nell'ANOVA è. un diagramma di dispersione. un grafico con linee. un grafico a torta. un grafico a barre. Nell'ANOVA multifattoriale l'effetto di ciascuna variabile indipendente è detto. effetto dell'interazione. effetto principale. effetto della correlazione. effetto significativo. L'ANOVA multifattoriale si distingue dall'ANOVA a una via perché. entrambe le alternative. considera 2 o più variabili dipendenti. considera 2 o più variabili indipendenti. nessuna delle alternative. L'analisi che include lo studio dell'interazione è. l'ANOVA multifattoriale. la correlazione. l'ANOVA a una via. il chi-quadro. Nell'ANOVA multifattoriale è utilizzata quando si hanno. due variabili indipendenti e una variabile dipendente. tutte le alternative possono essere valide. due variabili dipendenti e una variabile indipendente. due variabili indipendenti e due variabili dipendenti. L'analisi che permette di misurare l'effetto combinato di due variabili indipendenti è. la correlazione. l'ANOVA a una via. l'ANOVA multifattoriale. il chi-quadro. Il test di Dunett e il test di Scheffé sono tipi di test per. per misurare l'affidabilità. per testare la correlazione. per effettuare la regressione. effettuare i confronti multipli. I confronti multipli pianificati. sono decisi dopo aver rilevato una interazione significativa. sono decisi prima di iniziare la raccolta dati. tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA. I confronti multipli post-hoc. tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA. sono decisi prima di aver condotto l'ANOVA. sono decisi prima di iniziare la raccolta dati. I confronti multipli effettuati nell'ANOVA possono essere. nessuna delle alternative. entrambe le alternative. post-hoc. pianificati. Con i confronti multipli effettuati dopo l'ANOVA si vuole stabilire. tutte le alternative. se c'è un'interazione significativa. quali sono le specifiche medie che differiscono significativamente. se c'è un effetto principale significativo. In una ANOVA non è possibile stabilire quali fra le medie considerate differiscono dalle altre quando. le variabili indipendenti presentano 2 livelli di trattamento. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento. In una ANOVA non è possibile stabilire direttamente quali fra le medie considerate differiscono dalle altre quando. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento. le variabili dipendenti presentano 2 livelli di trattamento. Nel grafico dell'interazione in una ANOVA multifattoriale, le linee parallele suggeriscono che. l'interazione non è significativa. l'interazione è significativa. non si possono interpretare gli effetti principali. non si può interpretare l'interazione. La tecnica statistica che può essere utilizzata per stimare il valore di Y a partire da X è. l'ANOVA. il chi-quadro. la regressione. il t-test. La retta di regressione. passa il meno vicino possibile ai punti del grafico di dispersione. passa il più vicino possibile ai punti nel grafico di dispersione. si traccia unendo tutti i punti nel grafico di dispersione. tutte le alternative possono essere valide. Quando si disegna una retta di regressione, nel grafico si rappresenta. la variabile predittore sull'asse orizzontale e la variabile criterio sull'asse verticale. tutte le alternative possono essere valide. la variabile x sull'asse verticale e la y sull'asse orizzontale. la variabile predittore sull'asse verticale e la variabile criterio sull'asse orizzontale. Il grafico di dispersione è utilizzato. nella correlazione e nella regressione. solo nella regressione. solo nella correlazione. nessuna delle alternative. La pendenza e l'intercetta sono stimate per descrivere. la potenza statistica. la distribuzione binomiale. la retta di regressione. la curva normale. Per descrivere la retta di regressione è necessario conoscere. varianza e media. asimmetria e curtosi. varianza e gradi di libertà. pendenza e intercetta. La regressione è una tecnica statistica che può essere utilizzata per. verificare l'effetto di un trattamento. fare delle previsioni. confrontare le frequenze di 2 gruppi. sapere se due medie sono significativamente diverse. Nell’equazione di regressione y= a + bx, la variabile x rappresenta. variabile predittore. pendenza. intercetta. variabile criterio. In una regressione la variabile Y è considerata. nessuna delle alternative. entrambe le alternative. la variabile dipendente. la variabile criterio. In una regressione la variabile X è considerata. la variabile dipendente. entrambe le alternative. nessuna delle alternative. la variabile criterio. In una regressione la variabile Y è considerata. entrambe le alternative. il predittore. la variabile indipendente. nessuna delle alternative. Nell’equazione di regressione y= a + bx, la b rappresenta. variabile predittore. intercetta. variabile criterio. pendenza. La retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione è. la retta di regressione. la retta di correlazione. la retta dell'interazione nell'ANOVA. la curva normale. La retta di regressione. è parallela alla curva normale. è la retta che rappresenta l'interazione in una ANOVA. coincide con la curva normale. è la retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione. La retta di regressione viene stimata attraverso il metodo. delle somme delle medie. dei massimi quadrati. delle massime distanze. dei minimi quadrati. Il metodo dei minimi quadrati è utilizzato. nel campionamento. nel chi-quadro. nell'ANOVA. nella regressione. In una regressione la variabile X è considerata. nessuna delle alternative. il predittore. la variabile indipendente. entrambe le alternative. In una regressione l'intercetta è definita come. l'errore di misura. il punto in cui la retta interseca l'asse orizzontale. la pendenza della retta. il punto in cui la retta interseca l'asse verticale. Nell’equazione di regressione y= a + bx, la a rappresenta. variabile criterio. pendenza. variabile predittore. intercetta. Il punto in cui la retta di regressione interseca l'asse verticale è. il criterio. l'intercetta. la pendenza. l'errore di misura. Se l'equazione di regressione è Y = -3 + 7X, la retta intersecherà l'asse X a. 0. 7. 3. -3. Se l'equazione di regressione è Y = 5 + 4X, all'aumentare di 1 unità di X la Y. aumenterà di 5. diminuirà di 4. aumenterà di 4. aumenterà di 0. Se l'equazione di regressione è Y = 5 + 4X, la retta intersecherà l'asse X a. 5. 4. 0. -5. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di laurea è. la pendenza. la variabile predittore. la variabile criterio. l'intercetta. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di maturità è. la variabile predittore. la variabile criterio. la pendenza. l'intercetta. Se l'equazione di regressione è Y = 6 - 7X, all'aumentare di 1 unità di X la Y. aumenterà di 6. aumenterà di 0. diminuirà di 7. aumenterà di 7. Nell’equazione di regressione y= a + bx, la variabile y rappresenta. pendenza. variabile predittore. intercetta. variabile criterio. Per sapere quanto aumenta la variabile criterio all'aumentare di 1 unità della variabile predittore si utilizza. la varianza. la media. la pendenza. l'intercetta. Il coefficiente di regressione è. l'intercetta. la pendenza della retta. il criterio. il predittore. La correlazione e la regressione. sono simili ma hanno scopi diversi. sono due modi di chiamare la stessa tecnica. sono simili e hanno lo stesso scopo. non hanno alcuna similarità. Nella retta di regressione la pendenza indica. nessuna delle alternative. entrambe le alternative. quanto aumenta la Y all'aumentare di 1 unità della X. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. Nella regressione, l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale è. l'intercetta. il criterio. la pendenza. il predittore. La pendenza della retta di regressione è. l'intercetta. l'errore di misura. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. il criterio. Il coefficiente di determinazione misura. la correlazione tra due variabili. l'affidabilità di una variabile. la varianza di una variabile. la proporzione di varianza totale condivisa da due variabili. La proporzione di varianza totale condivisa da due variabili è misurata con. il coefficiente di determinazione. il coefficiente di affidabilità. il coefficiente di correlazione. il coefficiente d di Cohen. Il coefficiente di determinazione è calcolato con. la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione elevato al quadrato. il coefficiente di correlazione diviso N. il coefficiente di correlazione diviso la deviazione standard. Se il campione è grande, una relazione tra variabili. solo se grande può essere statisticamente significativa. solo se grande non può essere statisticamente significativa. anche se piccola non può essere statisticamente significativa. anche se piccola può essere statisticamente significativa. Per sapere se è ragionevole generalizzare alla popolazione i risultati ottenuti sul campione si utilizza. la dimensione dell'effetto. l'affidabilità. la dispersione. la significatività statistica. Per misurare la dimensione degli effetti, il risultato del t-test si può trasformare in. deviazione standard. coefficiente di correlazione. alfa di Cronbach. media aritmetica. La dimensione dell'effetto può essere misura con. solo con la d di Cohen. il coefficiente di correlazione e la d di Cohen. nessuna delle alternative. solo con il coefficiente di correlazione. La meta-analisi. analizza gli studi già pubblicati su un tema. è uno studio di studi. entrambe le alternative. nessuna delle alternative. Valutare la forza della relazione tra variabili emersa in molti studi è l'obiettivo. della regressione. dell'analisi della varianza. dei test non parametrici. della meta-analisi. Valutare l'influenza di varie caratteristiche degli studi già svolti (es. campione, metodo) sulla forza della relazione tra variabili è l'obiettivo. dei test non parametrici. della meta-analisi. della regressione. dell'analisi della varianza. La tecnica che permette di analizzare il modello dei risultati di una serie di studi pubblicati e non pubblicati su una ipotesi di ricerca è. la meta-analisi. la regressione. la significatività statistica. l'inferenza statistica. Gli studi selezionati per la meta-analisi possono essere. solo a sfavore dell'ipotesi di ricerca. a favore o a sfavore dell'ipotesi di ricerca. solo a favore dell'ipotesi di ricerca. non pertinenti all'ipotesi di ricerca. In una meta-analisi è bene includere uno studio. solo se conferma l'ipotesi di ricerca. solo se non è pertinente all'ipotesi di ricerca. solo se contraddice l'ipotesi di ricerca. se conferma o contraddice l'ipotesi di ricerca. In una meta-analisi è bene includere uno studio. entrambe le alternative. nessuna delle alternative. se conferma l'ipotesi di ricerca. se contraddice l'ipotesi di ricerca. In una meta-analisi è bene includere. solo gli studi di autori noti. solo gli studi non pubblicati. solo gli studi pubblicati. sia gli studi pubblicati che quelli non pubblicati. Il concetto centrale nella meta-analisi è. il campionamento. il numero di studi utilizzati. la distribuzione normale. la dimensione dell'effetto. La dimensione dell'effetto. è il concetto centrale nella meta-analisi. tutte le alternative. riguarda quanto è grande l'effetto di una variabile sull'altra. non coincide con la significatività statistica. La dimensione dell'effetto. non è usata nella meta-analisi. può essere calcolata con la d di Cohen. non può essere misurata. corrisponde alla significatività statistica. Nella meta-analisi, l'uso del coefficiente di correlazione è consigliato perché. entrambe le alternative. nessuna delle alternative. può essere calcolato a partire da una varietà di test di significatività. è più flessibile della d di Coehn. In una meta-analisi, si può calcolare la dimensione dell'effetto di uno studio. moltiplicando per N il livello di significatività. calcolando la radice quadrata del livello di significatività. dividendo il livello di significatività per la d di Cohen. trasformando in punti z il livello di significatività. In una meta-analisi, per calcolare la dimensione dell'effetto di ciascuno studio si può usare. la grandezza dell'effetto riportata nello studio. il risultato del t-test. tutte le alternative. il livello di significatività e la dimensione del campione. Le meta-analisi cercano di stimare quali caratteristiche degli studi. entrambe le alternative. sono responsabili di piccole dimensioni dell'effetto. nessuna delle alternative. sono responsabili di grandi dimensioni dell'effetto. Affinché possa essere utilizzato in una meta-analisi uno studio deve riportare almeno. il livello di significatività e la dimensione del campione. il genere e l'età dei partecipanti. solo la dimensione del campione. solo il livello di significatività. In una meta-analisi la dimensione dell'effetto può essere valutata. con l'alfa di Cronbach. nessuna delle alternative. entrambe le alternative. con la deviazione standard. In una meta-analisi la dimensione dell'effetto può essere valutata. con il coefficiente di correlazione. con la d di Cohen. entrambe le alternative. nessuna delle alternative. La coerenza interna di una scala psicologica può essere misurata con. tutte le alternative. l'alfa di Cronbach. la correlazione tra singolo item e punteggio totale. il metodo split-half. Verificare se le componenti di una scala psicologica stanno misurando la stessa cosa è l'obiettivo. dell'analisi di affidabilità. dell'analisi della potenza statistica. dell'analisi della varianza. della meta-analisi. L'indice kappa è utilizzato per misurare. la coerenza interna. la varianza delle misure. la difficoltà delle misure. la concordanza tra valutatori. Per misurare la concordanza tra valutatori si utilizza. l'indice kappa. l'affidabilità split-half. l'alfa di Cronbach. la correlazione item totale. Un indice della concordanza tra valutatori dovrebbe. essere sensibile al fatto che i valutatori non variano i loro giudizi. fornire un'indicazione della sovrapposizione tra le valutazioni. nessuna delle alternative. entrambe le alternative. La media di tutte le possibili affidabilità split-half che potrebbero essere calcolate per una scala è. l'alfa di Cronbach. il coefficiente eta. l'affidabilità split-half. la correlazione item totale. L'affidabilità che correla il punteggio totale su metà item con il punteggio totale sull'altra metà degli item è detta. coefficiente eta. coefficiente di determinazione. split-half. correlazione item totale. Se una scala di misura è dotata di coerenza interna ciascun item. dovrebbe essere correlato con un solo altro item. dovrebbe essere correlato con gli altri item della misura. non dovrebbe essere correlato con il punteggio totale. non dovrebbe essere correlato con gli altri item della misura. Il risultato dell'affidabilità misurata con l'alfa di Cronbach. dipende dal modo in cui abbiamo suddiviso gli item. dipende dalla significatività statistica. non dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. Il risultato dell'affidabilità split-half. non prevede una suddivisione degli item. dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. non dipende dal modo in cui abbiamo suddiviso gli item. Il metodo split-half viene utilizzato per misurare. la validità. l'affidabilità. la significatività. la potenza statistica. Il coefficiente alfa di Cronbach misura. la significatività. la potenza statistica. l'affidabilità. la validità. La correlazione tra singolo item e punteggio totale su una scala psicologica è un modo per misurare. la validità. la potenza statistica. l'affidabilità. la significatività. Per misurare la dimensione degli effetti in una ANOVA si utilizza. l'alfa di Cronbach. la varianza. la devianza. il coefficiente eta. L'affidabilità come coerenza interna riguarda. quanto è stabile nel tempo una scala psicologica nel tempo. quanto i soggetti valutano credibile una scala psicologica. quanto le componenti di una scala psicologica misurano la stessa cosa. quanto è valida una scala psicologica. Per calcolare l'intervallo di confidenza è necessario conoscere. la mediana. la potenza statistica. l'errore standard. la dimensione dell'effetto. I valori statisticamente significativi sono quelli. nessuna delle alternative. che non hanno a che fare con gli intervalli di confidenza. compresi all'interno dell'intervallo di confidenza. non compresi all'interno dell'intervallo di confidenza. L'insieme dei valori che al 95% includono la 'vera' media della popolazione è. il range dei valori al 95%. l'intervallo di confidenza al 95%. la potenza statistica al 95%. l'affidabilità dei valori al 95%. A minore variabilità nei dati corrisponderà. maggiore ampiezza della media. minor ampiezza dell'intervallo di confidenza. minore ampiezza della media. maggiore ampiezza dell'intervallo di confidenza. Un intervallo di confidenza è un insieme di valori. che definiscono il range di una distribuzione. che indicano la dimensione dell'effetto di uno studio. all'intero del quale è più probabile che giaccia il valore della popolazione. che definiscono l'affidabilità di una scala di misura. La potenza statistica di uno studio aumenta. se aumenta la grandezza del campione. se aumenta la dimensione dell'effetto. se aumenta il livello di significatività. tutte le alternative. All'aumentare della grandezza del livello di significatività. diminuisce la probabilità di commettere un errore di I tipo. aumenta la probabilità di commettere un errore di II tipo. aumenta la probabilità di commettere un errore di I tipo. diminuisce la potenza statistica. La potenza statistica diminuisce. se diminuisce la dimensione dell'effetto. se diminuisce la grandezza del campione. tutte le alternative. se diminuisce il livello di significatività. La potenza statistica è collegata a. la dimensione dell'effetto. tutte le alternative. l'ampiezza dei campioni. il livello di significatività. All'aumentare della dimensione dell'effetto. la potenza statistica aumenta. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica diminuisce. La potenza statistica è l'inverso. dell'errore di II tipo. della significatività. della dimensione dell'effetto. dell'errore di I tipo. La probabilità che una ricerca sia in grado di rilevare un effetto nel campione selezionato quando l'effetto esiste (nella popolazione statistica) è. la potenza statistica. la distribuzione binomiale. la distribuzione normale. la significatività statistica. L'errore di I tipo è la probabilità. di concludere che non c'è un effetto quando in realtà c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che c'è un effetto che in realtà c'è. di concludere che c'è un effetto quando in realtà non c'è. All'aumentare della grandezza del livello di significatività. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica aumenta. la potenza statistica diminuisce. L'errore di II tipo è la probabilità. di concludere che c'è un effetto quando in realtà non c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che non c'è un effetto quando in realtà c'è. di concludere che c'è un effetto che in realtà c'è. La probabilità di concludere che non c'è un effetto quando in realtà c'è è detta. errore di II tipo. nessuna delle alternative. potenza statistica. errore di I tipo. La probabilità di concludere che c'è un effetto quando in realtà non c'è è detta. errore di II tipo. errore di I tipo. potenza statistica. nessuna delle alternative. L'errore di II tipo è l'inverso. della significatività. dell'errore di I tipo. della dimensione dell'effetto. della potenza statistica. Si considera adeguato un valore di potenza statistica di. 0.001. 0.05. 0.3. 0.8. La numerosità campionaria ottimale dipende. da quanto siamo disposti a rischiare in termini di errore di I e II tipo. dalla dimensione dell'effetto dello studio. nessuna delle alternative. entrambe le alternative. La dimensione dell'effetto e l'entità dell'errore di I e di II tipo determinano. la numerosità campionaria ottimale. la numerosità degli item di una scala di misura. la numerosità di studi da includere in una meta-analisi. la numerosità delle analisi statistiche da eseguire. L'errore di I tipo si verifica quando. nessuna delle alternative. viene rilevato un andamento nei dati che è in realtà casuale. si conclude che c'è un effetto quando in realtà non c'è. entrambe le alternative. L'errore di II tipo si verifica quando. entrambe le alternative. nessuna delle alternative. viene attribuito al caso un andamento nei dati che è reale. di concludere che non c'è un effetto quando in realtà c'è. All'aumentare della grandezza del campione. la potenza statistica diminuisce. nessuna delle alternative. la potenza statistica aumenta. la potenza statistica rimane invariata. |