Sandstorm due
![]() |
![]() |
![]() |
Title of test:![]() Sandstorm due Description: Sandstorm due |




New Comment |
---|
NO RECORDS |
2. 222. 2. I metodi qualitativi: fanno ricorso solamente alla statistica. non fanno ricorso alla quantificazione. producono output numerici. non producono materiale testuale. L'intervista non strutturata si caratterizza per: una certa flessibilità nelle domande e nell'ordine di somministrazione. una rigorosa predeterminazione delle domande e dell'ordine di somministrazione. l'assenza di domande predeterminate. non permettere allo sperimentatore di partecipare alla rilevazione. 03. L'intervista strutturata si caratterizza per: l'assenza di domande predeterminate. la possibilità di creare domande sul momento. una certa flessibilità nelle domande e nell'ordine di somministrazione. una rigorosa predeterminazione delle domande e dell'ordine di somministrazione. L'intervista semistrutturata si caratterizza per: l'assenza di domande predeterminate. una rigorosa predeterminazione delle domande e dell'ordine di somministrazione. una certa flessibilità nelle domande e nell'ordine di somministrazione. l'obbligo di avere una terza persona presente durante la somministrazione. Durante l'osservazione a distanza il ricercatore: si propone come parte attiva della situazione per modificarne l'esito. influenza le situazioni di vita quotidiana che sta osservando. raccoglie solo resoconti da chi ha partecipato alla situazione da indagare. partecipa ed osserva situazioni di vita quotidiana. L'osservazione a distanza: permette di raccogliere informazioni sul comportamento dei soggetti senza interferire con essi. è molto utilizzato per ricreare fenomeni naturali in laboratorio. viene svolta senza definire unità di misura specifiche. il ricercatore raccogliere dati sul comportamento dei soggetti guidando le loro attività. Durante l'osservazione a distanza: viene svolta senza definire unità di misura specifiche. permette di raccogliere informazioni sul comportamento dei soggetti interferendo con essi. il ricercatore non guida il comportamento dei soggetti. è molto utilizzato per ricreare fenomeni naturali in laboratorio. Il focus group: prevedere che l'esaminatore osservi il comportamento spontaneo dei soggetti senza farsi vedere. è un colloquio a due durante il quale vengono discussi specifici argomenti di interesse. è un gruppo all'interno del quale vengono discussi specifici argomenti di interesse. prevede che l'esaminatore lasci che i soggetti arrivino da soli ad affrontare l'argomento che gli interessa. Il moderatore di un focus group: istruisce i soggetti in merito alle risposte da dare. propone uno specifico argomento da discutere. lascia che i soggetti arrivino da soli ad affrontare l'argomento che gli interessa. osserva il comportamento spontaneo dei soggetti senza farsi vedere. Nella ricerca quantitativa l'obiettivo generale è quello di: verificare delle ipotesi. generalizzare i risultati. validare una teoria. tutte le alternative sono corrette. Nella ricerca qualitativa l'obiettivo generale è quello di: verificare delle ipotesi. generalizzare i risultati. esplorare e descrivere i fenomeni. validare una teoria. I metodi di ricerca misti comprendono: metodi qualitativi. metodi quantitativi. metodi qualitativi e quantitativi. metodi qualitativi o quantitativi. I metodi qualitativi: sono poco usati nella ricerca psicologica. sono il metodo di elezione per tutte le ricerche in psicologia. sono molto usati nella ricerca psicologica. non vengono mai presi in considerazione nella ricerca psicologica. L'intervista può essere: di tipica e di massima performance. non struttura, strutturata, semistrutturata. solo strutturata. verbale e non verbale. Le variabili psicologiche sono anche dette: manifeste. latenti. osservabili. invariabili. Le grandezze intensive sono: sono sommabili. direttamente misurabili. divisibili. misurabili indirettamente. Le variabili latenti: rappresentano una piccola parte delle variabili psicologiche. sono variabili che non esistono in psicologia. sono direttamente osservabili. non sono direttamente osservabili. Le grandezze estensive sono: solo graduabili. misurabili indirettamente. direttamente misurabili. sempre indivisibili. Una misura si dice fondamentale quando: consente di compiere le operazioni di addizione e sottrazione. non consente di compiere le operazioni di addizione e sottrazione. consente di compiere solo sottrazioni. consente di compiere solo addizioni. I valori di riferimento nella misurazione si basano su: caratteristiche decise dal ricercatore. caratteristiche arbitrarie. caratteristiche ingenue. le caratteristiche di una popolazione di riferimento. I valori di riferimento nella misurazione: devono essere arbitrariamente stabiliti dal ricercatore. permettono di scegliere gli item di un test. non possono essere arbitrariamente stabiliti dal ricercatore. si basano sul senso comune. Le variabili manifeste: rappresentano una piccola parte delle variabili psicologiche. non sono direttamente osservabili. sono direttamente osservabili. sono variabili che non esistono in psicologia. Affinché ci possa essere una misura è necessario: un sistema di riferimento almeno bidimensionale. un sistema di riferimento almeno tridimensionale. non serve nessun sistema di riferimento. un sistema di riferimento solamente unidimensionale. Quando misuriamo: rappresentiamo le proprietà di un sistema numerico tramite le proprietà d'altri sistemi numerici. rappresentiamo le proprietà di oggetti o eventi tramite le proprietà di altri sistemi di oggetti o eventi. rappresentiamo le proprietà degli oggetti e degli eventi tramite le proprietà del sistema numerico. rappresentiamo le proprietà del sistema numerico tramite le proprietà degli oggetti e degli eventi. Nella misurazione la relazione tra sistema empirico e numerico deve essere: a due vie. monodirezionale. univoca. imprecisa. Durante il processo di misurazione: facciamo corrispondere ad ogni valore numerico un valore empirico. troviamo la relazione causale tra le variabili. facciamo corrispondere ad ogni valore empirico un valore numerico. rappresentiamo le proprietà di un sistema numerico tramite le proprietà d altri sistemi numerici. Misurare significa: trovare un valore per ogni oggetto seguendo il buonsenso. assegnare valori alfanumerici ad oggetti o eventi secondo delle regole. assegnare valori numerici ad oggetti o eventi secondo delle regole. associare due numeri seguendo delle regole. In psicologia per misurare è possibile usare: il sistema numerico formato da numeri reali. il sistema numerico basato su etichette. tutte le alternative sono corrette. il sistema numerico basato su etichette. Il sistema empirico comprende: tutti i dati possibili relativi all'oggetto di studio. l'insieme di «dati» raccolti e disponibile. convenzioni matematiche e astrazioni numeriche relative ai dati. l'insieme di «valori» assegnati ai dati raccolti. Il sistema numerico fa riferimento: all'insieme di «dati» raccolti e disponibile. all'insieme di «valori» assegnati ai dati raccolti. all'insieme di «valori» assegnati ai dati che non sono stati raccolti. a tutti i dati possibili relativi all'oggetto di studio. Spesso, nel processo di misurazione di costrutti non osservabili è necessario: usare come riferimenti sistemi arbitrari. usare strumenti che non hanno valori di riferimento. far riferimento alle teorie preesistenti. far riferimento solo ai dati raccolti. Quando analizziamo il comportamento la durata indica: il numero delle volte in cui si presenta un determinato evento. tutte le alternative sono corrette. l'intervallo di tempo che intercorre tra la presentazione di uno stimolo e la risposta ad esso. la quantità di tempo in cui un singolo comportamento viene mantenuto. L'osservazione senza misurazione: sono due concetti che non possono essere messi in relazione. è sempre possibile. non è mai possibile. sono due concetti che non possono essere messi in relazione. Quando analizziamo il comportamento la frequenza indica: l'intervallo di tempo che intercorre tra la presentazione di uno stimolo e la risposta ad esso. la quantità di tempo in cui un singolo comportamento viene mantenuto. nessuna delle alternative. il numero delle volte in cui si presenta un determinato evento. Quando analizziamo il comportamento la latenza indica: la quantità di tempo in cui un singolo comportamento viene mantenuto. il numero delle volte in cui si presenta un determinato evento. tutte le alternative sono corrette. l'intervallo di tempo che intercorre tra la presentazione di uno stimolo e la risposta ad esso. Il comportamento può essere misurato usando: Latenza, Assenza, Durata e numerosità. Latenza, Frequenza, Durata e Intensità. Luogo, Tempo, Causa, Effetto. nessuna delle alternative. L'osservazione del comportamento ha come obiettivo: quantificare le osservazioni del comportamento oggetto di studio. solamente manipolare direttamente in comportamento. produrre solo un report descrittivo del comportamento. trovare la relazione causale tra le variabili. Quando misuriamo un costrutto psicologico: dobbiamo scegliere solo una tipologia di misura. possiamo scegliere tra diverse possibili misure. ogni costrutto ha una tipologia di misura adatta. i costrutti non possono mai essere misurati. Nella procedura di campionamento casuale stratificato: I sottogruppi della popolazione vengono divisi e inseriti ciascuno in diversi esperimenti. Si selezionano soggetti volontari. La popolazione viene suddivisa arbitrariamente in gruppi più piccoli, sulla base di un certo criterio e su questi sottogruppi vengono svolte le procedure di campionamento casuale. vengono selezionati solo soggetti appartenenti al gruppo di controllo. Nel campionamento casuale senza reinserimento: il soggetto estratto della popolazione viene reinserito prima dell'estrazione successiva. tutte le alternative. il soggetto estratto della popolazione non viene reinserito prima dell'estrazione successiva. il soggetto estratto dalla popolazione non farà parte del campione. Nel campionamento casuale con reinserimento: il soggetto estratto della popolazione viene reinserito prima dell'estrazione successiva. tutte le alternative. il soggetto estratto dalla popolazione non farà parte del campione. il soggetto estratto della popolazione non viene reinserito prima dell'estrazione successiva. Il campione dovrebbe essere: estraneo alla popolazione. più grande della popolazione. rappresentativo della popolazione. composto da individui che non appartengono alla popolazione. Nella procedura di campionamento ad hoc: vengono selezionati solo soggetti appartenenti al gruppo di controllo. Ogni elemento di un insieme ordinato di n elementi di una della popolazione ha la stessa probabilità di formare il campione. Si selezionano solo soggetti volontari. La popolazione viene suddivisa arbitrariamente in gruppi più piccoli, sulla base di un certo criterio e quindi, su questi sottogruppi vengono svolte le procedure di campionamento casuale. Il campionamento casuale: può essere con o senza gruppo di controllo. può essere fatto con o senza rimodellamento. può essere fatto con o senza probabilità. può essere fatto con o senza reinserimento. Nella procedura di campionamento casuale: Ogni elemento della popolazione ha la stessa probabilità di formare il campione. I sottogruppi della popolazione vengono divisi e inseriti ciascuno in diversi esperimenti. Si selezionano soggetti volontari. La popolazione viene suddivisa arbitrariamente in gruppi più piccoli, sulla base di un certo criterio e quindi, su questi sottogruppi vengono svolte le procedure di campionamento casuale. Con il termine campione intendiamo: tutti gli eventi di interesse cui si rivolge lo sperimentatore. tutti gli eventi che non interessano allo sperimentatore. tutti i volontari che presentano la caratteristica che lo sperimentato vuole studiare. un piccolo insieme di eventi tratto dalla popolazione. Con il termine popolazione intendiamo: tutta la popolazione mondiale. tutti gli eventi che non interessano allo sperimentatore. tutti gli eventi di interesse cui si rivolge lo sperimentatore. un insieme di eventi tratto dal gruppo che comprende tutti i soggetti che vogliamo studiare. Il campionamento comprende: le modalità che il ricercatore adotta per individuare i soggetti che prenderanno parte all'esperimento. procedure per il calcolo delle probabilità. le modalità che il ricercatore adotta per individuare tutti i soggetti che hanno la caratteristica che vuole studiare. le modalità usate per individuare i soggetti che non hanno le caratteristiche che interessano allo sperimentatore. Una variabile può essere considerata come: l'evento che viene considerato durante l'esperimento. un costrutto. il gruppo di controllo. la proprietà che è stata misurata rispetto a un evento reale. Uno strumento di misura accurato: nessuna delle alternative. misura in modo preciso il costrutto indagato. misura il costrutto per cui è stato progettato. entrambi. Uno strumento di misura affidabile: misura in modo preciso il costrutto indagato. misura il costrutto per cui è stato progettato. nessuna delle alternative. entrambi. Uno strumento di misura dovrebbe essere: entrambi. affidabile. accurato. nessuna delle alternative. Misurare permette di: definire una corrispondenza tra due sistemi empirici. nessuna delle alternative. definire una corrispondenza tra due sistemi numerici. definire una corrispondenza tra un sistema empirico a un sistema numerico. Il processo di misurazione nella costruzione di una variabile prevede: il passaggio dalla variabile al valore. il passaggio dal significato alla variabile. il passaggio dal costrutto alla variabile. il passaggio dal costrutto al significato. Il processo di operazionalizzazione nella costruzione di una variabile prevede: il paggio dal costrutto alla variabile. il passaggio dal costrutto al significato. il passaggio dal significato alla variabile. il passaggio dalla variabile al valore. Il processo di definizione nella costruzione di una variabile prevede: il passaggio dal costrutto alla variabile. il passaggio dalla variabile al valore. il passaggio dal costrutto al significato. il passaggio dal significato alla variabile. Il passaggio dal costrutto al significato di una variabile viene identificato come: misurazione. operazionalizzazione. validazione. definizione. Il passaggio dalla variabile ai valori numerici viene identificato come: operazionalizzazione. definizione. misurazione. validazione. Il passaggio dal significato alla variabile viene identificato come: validazione. operazionalizzazione. misurazione. definizione. Le costanti devono: riguardare i soggetti esclusi dall'esperimento. assumere più valori. restare costanti a seguito di una manipolazione. assumere un solo valore. Le variabili devono: assumere più valori. riguardare i soggetti esclusi dall'esperimento. assumere un solo valore. restare costanti a seguito di una manipolazione. Nella scala ordinale i numeri rappresentano: solo una relazione d'ordine tra le quantità. esprimano quantità e le distanze tra valori sono definite in termini quantitativi. tutte le alternative. numeri reali e si comportano come tali. Una variabile qualitativa può essere: Nominale e a rapporti. Nominale e ad intervalli. Ordinale e nominale. A rapporti e ad intervalli equivalenti. Le costanti: sono l'oggetto di studio principale della ricerca. esprimono valori alfanumerici. vengono analizzate durante una ricerca. non vengono analizzate durante una ricerca. In ricerche diverse una stessa caratteristica può essere: una variabile. una costante. entrambe. nessuna delle alternative. Una variabile quantitativa può essere: Ordinale e nominale. A rapporti e ad intervalli equivalenti. Nominale e a rapporti. Nominale e ad intervalli. Nella scala nominale i numeri rappresentano: solo una relazione d'ordine tra le quantità. etichette con nomi diversi. tutte le alternative. numeri reali e si comportano come tali. La variabile "Tipo di alloggio" può essere definita: a rapporti. ordinale. nominale. a intervalli. La variabile "indosso/non indosso lo smalto" può essere definita: a rapporti. a intervalli. ordinale. nominale. La variabile "classifica della gara di sci" può essere definita : a intervalli. a rapporti. nominale. ordinale. Le operazioni possibili sulla scala ordinale sono: nessuna delle alternative. entrambe. uguaglianza / disuguaglianza. maggiore di / minore di. Le operazioni possibili sulla scala nominale sono: entrambe. nessuna delle alternative. uguaglianza / disuguaglianza. maggiore di / minore di. In una scala ad intervalli equivalenti: è presente uno zero assoluto. i valori non possono essere ordinati. non è presente uno zero assoluto. i valori devono essere per forza diversi da zero. La variabile "numero di abitanti del centro abitato" può essere definita : ordinale. a intervalli. a rapporti. nominale. La variabile "Ore settimanali dedicate allo studio" può essere definita : nominale. a rapporti. a intervalli. ordinale. Usando variabili quantitative è possibile: svolgere operazioni matematiche. nessuna delle alternative. solamente ordinare i valori. solamente etichettare i diversi livelli della variabile. La variabile «punteggio ad un test di ansia» può essere definita : a rapporti. ordinale. nominale. a intervalli. Con variabili su scala ad intervalli equivalenti: entrambe le alternative. posso sommare e sottrarre i valori che la variabile assume. nessuna delle alternative. posso moltiplicare e dividere i valori che la variabile assume. In una scala a rapporti equivalenti: i valori non possono essere ordinati. i valori devono essere per forza diversi da zero. è presente uno zero assoluto. non è presente uno zero assoluto. I risultati della statistica descrittiva vengono presentati usando: tabelle. nessuna delle due. entrambi. grafici. La statistica descrittiva è applicabile a variabili: nessuna delle due. quantitative. entrambe. qualitative. I risultati emersi dalle analisi descrittive del campione: ci indicano le caratteristiche dei soggetti che non appartengono alla popolazione. non permettono di fare inferenze sulla popolazione. permettono di fare inferenze sulla popolazione. saranno identici a quelli che emergerebbero analizzando la popolazione. La statistica descrittiva è quella che si propone come scopo: elencare tutti i casi che costituiscono una popolazione per dare poter avere tutti i casi sotto controllo. esprime il grado di accordo fra diverse misure dello stesso costrutto. esplicitare la relazione casuale tra le variabili. descrivere e trovare degli indici di sintesi del campione. Qual è la frequenza assoluta del numero 7 nella seguente distribuzione 4, 6, 7, 5, 3, 5, 5, 7, 9, 5, 7. 7x3. 7. 11. 3. La frequenza è: il numero di volte in cui si presenta un determinato soggetto. il numero di volte in cui si presenta un determinato "evento" o modalità. il numero di volte in cui si presenta un determinato sperimentatore. il numero di volte in cui si presenta un determinato test psicologico. Qual è la frequenza assoluta del numero 9 nella seguente distribuzione 4, 6, 9, 7, 5, 3, 5, 5, 7, 9, 5. 2. non può essere calcolata. 1. 5. Solitamente si calcolano le frequenze per: ogni soggetto. ogni possibile modalità di risposta. ogni esperimento. tutte le alternative. Le modalità sono: regole di somministrazione dello stesso test. tipologie di disegno sperimentale. valori numerici o gli attributi che un carattere può assumere. procedure di campionamento. La somma delle frequenze assolute: deve essere pari alla numerosità del campione. deve essere uguale al totale della popolazione. è uguale al numero di modalità della variabile. deve essere pari a cento. Le frequenze assolute e quelle relative: non sono tra loro legate. sono una diversa espressione dello stesso valore. sono indicative della frequenza della popolazione. sono la stessa rappresentazione di due valori diversi. Le frequenze relative si calcolano: trasformando il valore assoluto in percentuale. trasformando la percentuale in valore assoluto. trasformando i dati relativi in dati cumulati. trasformando i dati grezzi in dati corretti. Qual è la frequenza assoluta del numero 2 nella seguente distribuzione 4, 6, 2, 7, 5, 2, 3, 5, 2, 7, 9, 5. 30%. 5%. nessuna delle alternative. 3. Qual è la frequenza assoluta del numero 7 nella seguente distribuzione 4, 6, 7, 5, 3, 5, 2, 7, 9, 5. 2. 7. 7%. 20%. Le righe di una tabella di frequenza rappresentano: le varie modalità. rappresenta la media del campione. i vari soggetti. le varie tipologie di frequenze calcolate. La somma delle frequenze relative: deve essere uguale al totale della popolazione. deve essere pari alla numerosità del campione. è uguale al numero di modalità della variabile. deve essere pari a cento. Le colonne di una tabella di frequenza: le varie modalità. rappresenta la media del campione. le varie tipologie di frequenze calcolate. i vari soggetti. Le classi usate per calcolare le frequenze devono essere: disgiunte, esaustive, chiuse a destra. disgiunte, esclusive, chiuse a destra. congiunte, esclusive, chiuse a sinistra. non ordinate. Per la variabile "punteggio ad un test di ansia" posso calcolare: nessuna delle due alternative. le frequenze cumulate. le frequenze assolute. entrambe le alternative. Per la variabile "genere" posso calcolare: nessuna delle due alternative. le frequenze assolute. entrambe le alternative. le frequenze cumulate. Le frequenze cumulate non dovrebbero essere calcolate: per variabili ordinali. per variabili quantitative. per variabili nominali. per tutte le precedenti. Le frequenze cumulate vengono calcolate a partire da: nessuna delle due. frequenze relative. frequenze assolute. entrambe. Le frequenze cumulate sono: la somma delle frequenze di una categoria e delle precedenti. la somma totale di tutte le categorie. la somma delle frequenze di una categoria e delle successive. la somma di tutti i soggetti analizzati. Le frequenze cumulate possono essere calcolate anche su dati: organizzati in classi. non organizzati. organizzati in grafici. organizzati in slide. In un grafico a barre, le barre: fanno parte degli elementi strutturali. fanno parte degli elementi decorativi. rappresentano i dati. nessuna delle alternative. L'unità di misura dei dati in un grafico fa parte: degli elementi strutturali. nessuna delle due. degli elementi decorativi. entrambe. Gli elementi decorativi di un grafico: non sono legati ai dati. sono la rappresentazione dei dati. sono rappresentati in barre, linee, aree o punti. consentono la comprensione dei dati. I grafici possono includere: elementi decorativi. i dati. elementi strutturali. tutte le alternative. Gli elementi strutturali di un grafico: sono la rappresentazione dei dati. non sono legati ai dati. sono rappresentati in barre, linee, aree o punti. consentono la comprensione dei dati. In una tabella di contingenza le frequenze marginali sono: le intestazioni delle righe. gli elementi presenti in ogni cella. le intestazioni delle colonne. le frequenze per ciascuna riga o colonna. Le tabelle di contingenza servono per condurre: un'analisi della varianza. un'analisi fattoriale. un'analisi bivariata. un'analisi univariata. Nelle celle interne di una tabella di contingenza sono rappresentate: le frequenze marginali. nessuna delle alternative. le frequenze congiunte. il totale dei casi. Nelle ultime righe e colonne di una tabella di contingenza sono rappresentate: le frequenze congiunte. le frequenze marginali. le frequenze di ogni soggetto. nessuna delle alternative. Le tabelle di contingenza possono essere fatte usando: entrambe. le frequenze assolute. le frequenze relative. nessuna delle due. Le etichette degli assi in un grafico fanno parte: nessuna delle due. degli elementi decorativi. degli elementi strutturali. entrambe. Le tabelle di contingenza possono essere fatte usando: entrambe. le frequenze assolute. le frequenze relative. nessuna delle due. La mediana è: La classe che compare con frequenza più alta all'interno della distribuzione. La misura che occupa la posizione centrale in un campione di dati disposti in ordine crescente in base al loro valore. Un limite esatto (o reale) superiore. Una suddivisione in parti uguali dei dati ordinati. La mediana rappresenta un caso particolare di: curva normale. media. quantile. deviazione standart. Qual è la moda della seguente distribuzione di punteggi ad una prova di matematica: 4, 6, 2, 7, 5, 2, 3, 5, 2, 7, 9, 5, 7, 7. 7. 5. nessuna delle alternative. 2. Gli indici di tendenza centrale sono: statistiche che esprimono le tendenza estreme che emergono da un campione di dati. statistiche che ci permettono di trovare uno specifico soggetto che rappresenta tutta la popolazione. statistiche che forniscono un elenco di tutti i casi presenti nel campione. statistiche che permettono di sintetizzare un insieme di misure tramite un unico valore "rappresentativo". La moda può essere definita come: Un limite esatto (o reale) superiore. Una suddivisione in parti uguali dei dati ordinati. La classe che compare con frequenza più alta all'interno della distribuzione. La misura che occupa la posizione centrale in un campione di dati disposti in ordine crescente in base al loro valore. La mediana permette: di dividere in tre parti uguali il campione. di dividere in due parti non uguali il campione. di dividere a metà il campione. di dividere in tre parti non equvalenti il campione. I decili suddividono la distribuzione: In 10 parti uguali. in un numero di parti variabile a seconda della necessità. In 10 parti non equivalenti. In 100 parti uguali. La differenza interquartile si ottiene: Calcolando la differenza tra il decimo e il centesimo quartile. Calcolando la differenza tra il secondo e il primo quartile. Calcolando la differenza tra il quinto e il sesto quartile. Calcolando la differenza tra il terzo e il primo quartile. I quantili non possono essere calcolati: a livello di scala nominale. a livello di scala a rapporti. a livello di scala ordinale. a livello di scala a intervalli. I quantili si riferiscono. ad una suddivisione in parti uguali dei dati ordinati. Alla misura che occupa la posizione centrale in un campione di dati disposti in ordine crescente in base al loro valore. Alla classe che compare con frequenza più alta all'interno della distribuzione. Ad un limite esatto (o reale) superiore. L'indice di tendenza centrale più usato con variabili qualitative è: la media. la varianza. la moda. il numero di categorie. Sto analizzando i punteggi ad un test di memoria dei pazienti visti il mese scorso, come indice di tendenza centrale posso usare: la mediana. la moda. tutte le alternative. la media. La media aritmetica di un insieme di dati è: il rapporto tra la somma di tutte le misure ottenute e il numero delle misure effettuate. Una suddivisione in parti uguali dei dati ordinati. Un limite esatto (o reale) superiore. La classe che compare con frequenza più alta all'interno della distribuzione. La media ponderata di un insieme di dati è: La classe che compare con frequenza più alta all'interno della distribuzione. il rapporto tra la somma di tutte le misure ottenute e il numero delle misure effettuate. il rapporto tra la somma, moltiplicata per la frequenza, di tutte le misure ottenute e la somma di tutte le frequenze. Una suddivisione in parti uguali dei dati ordinati. Come indice di tendenza centrale, a livello di scala nominale, possiamo usare: tutte le precedenti. la media. la mediana. la moda. Sto analizzando il colore degli occhi degli studenti della mia classse, come indice di tendenza centrale posso usare: la moda. la mediana. la media. tutte le precedenti. Gli indici di dispersione o variabilità: sono statistiche che esprimono la tendenza prevalente o principale che emerge da un campione di dati. permettono di descrivere quantitativamente la dispersione rispetto al valore di tendenza centrale. permettono una suddivisione in parti uguali dei dati ordinati. Forniscono un limite esatto (o reale) superiore. Il range o campo di variazione è: l'ampiezza dei valori compresa tra il valore massimo e il valore minimo. l'ampiezza dei valori compresa tra il valore massimo e il valore medio. l'ampiezza dei valori compresa tra il valore mediano e il valore medio. l'ampiezza dei valori compresa tra il valore medio e il valore minimo. Il range si ottiene: sommando la prima e l'ultima modalità della serie ordinata. dividendo l'ultima modalità della serie ordinata per la prima. sottraendo la prima modalità all'ultima della serie ordinata. moltiplicando l'ultima e la prima modalità della serie ordinata. Il range si ottiene calcolando: il quoziente tra l'ultima e la prima modalità della serie ordinata. la differenza tra l'ultima e la prima modalità della serie ordinata. la somma tra l'ultima e la prima modalità della serie ordinata. il prodotto tra l'ultima e la prima modalità della serie ordinata. La differenza Interquartile: È data dalla differenza tra il terzo e il primo quartile. È data dalla differenza tra il terzo e il quarto quartile. È data dalla differenza tra il terzo e il secondo quartile. È data dalla differenza tra il secondo e il primo quartile. La media aritmetica degli scarti di un valore dalla media della distribuzione è: uguale a zero. maggiore di zero. uguale a uno. minore di zero. La Varianza è data da: Lo scarto dalla media diviso per il totale delle osservazioni. la somma degli scarti dalla media divisi per il totale delle osservazioni. la somma degli scarti dalla media elevati al quadrato divisi per il totale delle osservazioni. la somma degli scarti dalla media elevati al quadrato. I quartili suddividono la distribuzione : in un numero di prove variabili a seconda della necessità. in 4 parti uguali. in 2 parti uguali. in 4 parti non equivalenti. La deviazione standard o scarto quadratico medio è: La media aritmetica dei valori assoluti degli scarti dei dati dalla media della distribuzione. Un limite esatto (o reale) superiore. Il rapporto tra la somma di tutte le misure ottenute e il numero delle misure effettuate. La radice quadrata della varianza. Come indice di variabilità, a livello di scala ordinale, possiamo usare: il range. nessuna delle precedenti. la deviazione standard. la varianza. L'indice di variabilità più usato con variabili qualitative è: tutte le precedenti. la moda. la deviazione standard. nessuna delle precedenti. La deviazione standard indica: di quanto, mediamente, i dati si discostano dalla mediana. di quanto, mediamente, i dati si discostano dalla media. di quanto, mediamente, i dati si discostano dalla varianza. di quanto, mediamente, i dati si discostano dalla moda. La deviazione standard o scarto quadratico medio rappresenta: la variabilità assoluta. la variabilità relativa. la variabilità modulare. La variabilità modulabile. Lo scostamento semplice medio: è la variazione aritmetica dei valori assoluti degli scarti delle x da un valore medio. è la media aritmetica dei valori assoluti degli scarti delle x da un valore medio. è la moda dei valori assoluti degli scarti delle x da un valore medio. è la mediana dei valori assoluti degli scarti delle x da un valore medio. Lo scostamento semplice medio può essere calcolato usando: media aritmetica e deviazione standard. moda o mediana. media aritmetica o moda. media aritmetica o mediana. La differenza media può essere: nessuna delle alternative. con ripetizione. entrambe le alternative. semplice. La differenza media permette: di calcolare la media delle differenze in valore assoluto fra tutte le possibili coppie di valori. di calcolare la media dei prodotti in valore assoluto fra tutte le possibili coppie di valori. di calcolare la deviazione standard delle differenze in valore assoluto fra tutte le possibili coppie di valori. di calcolare la somma dei prodotti in valore assoluto fra tutte le possibili coppie di valori. Lo studio della concentrazione e utile per: calcolare la media dei prodotti in valore assoluto fra tutte le possibili coppie di valori. prendere decisioni rispetto alla relazione causale tra le variabili. calcolare la deviazione standard delle differenze in valore assoluto fra tutte le possibili coppie di valori. vedere se il fenomeno è equamente distribuito fra tutte le unità statistiche. La concentrazione si calcola usando: la deviazione standard. il metodo grafico di Lorenz. la probabilità congiunta. l'anova. Basandosi sulla probabilità è possibile. generalizzare i risultati ottenuti dal campione alla popolazione. generalizzare i risultati ottenuti dalla popolazione al campione. generalizzare i risultati ottenuti dal laboratorio alla vita reale. modificare i risultati ottenuti per adeguarli alla popolazione. Per la concezione classica della probabilità possono esistere degli eventi: nessuna delle due alternative. totalmente certi. entrambe le alternative proposte. totalmente improbabili. La concezione logicistica di probabilità: considera la probabilità di un evento una relazione logica fra l'evento stesso ed un insieme di conoscenze di cui si dispone. viene denominata anche concezione classica. valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al verificarsi di un evento. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. Per la concezione classica della probabilità questa può assumere valori che vanno da: -1 e 0. 0 e 1. -1 e 1. 0 e 100. Per la concezione classica della probabilità questa: è il rapporto fra il numero dei casi osservati ed il numero n dei casi impossibili. è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) ed il numero n dei casi possibili. è il rapporto fra il numero totale dei casi ed il numero n dei casi osservati. è il rapporto fra il numero m dei casi sfavorevoli (al verificarsi di E) ed il numero n dei casi impossibili. La concezione assiomatica di probabilità: valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al veri?carsi di un evento. considera la probabilità di un evento è una relazione logica fra l'evento stesso ed un insieme di conoscenze di cui si dispone. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. viene denominata anche concezione classica. La concezione soggettiva di probabilità: viene denominata anche concezione classica. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) ed il numero n dei casi possibili. valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al verificarsi di un evento. La concezione frequentista della probabilità si basa: su entrambe le alternative proposte. sull'esperimento. sull'osservazione di prove ripetute del fenomeno. sull'esperimento. Il calcolo delle probabilità è: uno strumento irrazionale che permette di prendere decisioni in condizioni di incertezza. uno strumento razionale che permette di prendere decisioni in condizioni di incertezza. uno strumento irrazionale che permette di prendere decisioni in condizioni di certezza. uno strumento razionale che permette di prendere decisioni in condizioni di certezza. Secondo la teoria frequentista la probabilità di una certa caratteristica: è la frequenza relativa in un numero di prove ritenuto "sufficientemente" elevato. è il rapporto tra il numero di casi favorevoli all'evento e il numero di casi ugualmente possibili. è la frequenza cumulata in un ridotto numero di prove. il rapporto tra il numero di casi sfavorevoli all'evento e il numero di casi ugualmente possibili. Secondo la teoria soggettiva della probabilità: la probabilità associata a una certa affermazione misura il grado di credenza attribuito all'affermazione stessa da una certa persona. la probabilità di un evento è data dal limite al quale tende la frequenza relativa della caratteristica in esame col crescere del numero delle osservazioni. la probabilità di un evento è il rapporto tra il numero di casi favorevoli all'evento e il numero di casi ugualmente possibili. lo sperimentatore assegna a seconda della sua credenza un valore. I concetti primitivi del calcolo della probabilità sono: evento. prova. Tutte le alternative sono corrette. probabilità. Nell'impostazione assiomica del calcolo delle probabilità una prova è definita come: è anche detto evento o descrizione. non genera mai un evento. un esperimento soggetto a incertezza. una qualsiasi situazione che non permette di avere dei risultati. Nella teoria frequentista se la frequenza di un evento è pari a uno possiamo dire che: si è verificato in ogni osservazione. è impossibile. non si è verificato in nessuna delle n prove effettuate. nessuna delle alternative. Nella teoria frequentista se la frequenza di un evento è pari a zero possiamo dire che: è impossibile. nessuna delle alternative. si è verificato in ogni osservazione. non si è verificato in nessuna delle n prove effettuate. Nell'impostazione assiomica del calcolo delle probabilità un evento è definito come: uno dei possibili risultati della prova. un esperimento soggetto a incertezza. nessuna delle alternative. un numero associato al presentarsi di un evento. Legge empirica del caso dice che: fatta una ridotta serie di prove la frequenza tende ad assumere valori distanti alla probabilità dell'evento. fatta un'ampia serie di prove la frequenza tende ad assumere valori distanti alla probabilità dell'evento. fatta un'ampia serie di prove la frequenza tende ad assumere valori prossimi alla probabilità dell'evento. fatta una ridotta serie di prove la frequenza tende ad assumere valori prossimi alla probabilità dell'evento. Per la concezione soggettiva la probabilità è rappresentata da: numero reale compreso fra 1 e -1. numero reale compreso fra 0 e 1. numero reale compreso fra 0 e infinito. numero reale compreso fra -1 e 0. Nell'impostazione assiomica del calcolo delle probabilità una probabilità è definita come: un esperimento soggetto a incertezza. un numero associato al presentarsi di un evento. uno dei possibili risultati della prova. nessuna delle alternative. Quando voglio calcolare la probabilità che lanciando un dado esca 3 sapendo che è uscito un numero dispari sto calcolando: probabilità contabile. la probabilità condizionata. la probabilità composta. la probabilità corrispettiva. Quando si vuol calcolare la probabilità di prendere ad un esame e di vincere una schedina prenderò in considerazione: probabilità contabile. la probabilità condizionata. la probabilità collaterale. la probabilità composta. La probabilità composta di tre eventi indipendenti con probabilità pari a 1/4, 1/3 e 1/2 è pari a: 1/24. 1/9. 1/15. 1/2. . Il concetto di probabilità composta deriva da quello di: probabilità contabile. probabilità correlata. probabilità condizionata. probabilità binomiale. Considerando il lancio di un dado, la probabilità che esca 3 sapendo che è uscito un numero disperi è uguale a. 1/4. 1/3. 1/6. 1/12. La probabilità composta di due eventi indipendenti è pari a: la probabilità di uno sommata alla probabilità dell'altro. la probabilità di uno divisa per la probabilità dell'altro. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità di uno moltiplicata per la probabilità dell'altro. La probabilità che due eventi si verifichino contemporaneamente è pari a: la probabilità di uno moltiplicata per la probabilità dell'altro. la probabilità di uno dei due eventi divisa per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità di uno divisa per la probabilità dell'altro. La probabilità di un evento A condizionato a B può essere: minore o uguale alla probabilità di A. minore probabilità di A. maggiore o uguale alla probabilità di A. Tutte le alternative sono corrette. Quando consideriamo la probabilità condizionata di un evento "A": Se B non si verifica, l'evento A condizionato a B è definito. Se B non si verifica, l'evento A condizionato a B non è definito. nessuna delle precedenti. Se B si verifica, l'evento A condizionato a B non è definito. La probabilità condizionata si definisce come: la probabilità di un evento moltiplicata per la probabilità dell'altro. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità del veri?carsi di A nell'ipotesi che B non si sia verificato. la probabilità del verificarsi di A nell'ipotesi che B si sia verificato. In una distribuzione di probabilità uniforme: non è possibile conoscere i valori di probabilità legati agli elementi dell'insieme. ogni elemento di diversi insiemi correlati ha lo stesso valore di probabilità. ogni elemento di un insieme finito ha lo stesso valore di probabilità. gli elementi dell'insieme hanno diversi valori di probabilità. Un esempio di distribuzione di probabilità uniforme: l'osservazione di un fenomeno durante un'osservazione. prendere 30 a due esami consecutivi. la vincita di un campionato di calcio. il lancio di un dado. Nelle distribuzioni di probabilità continue. la variabile viene misurata con valori numerici interi. la variabile viene espressa su scala nominale. la variabile viene espressa su scala ordinale. la variabile viene espressa su un scala continua. La distribuzione di Poisson esprime le probabilità per: eventi che non hanno relazioni temporali. eventi il cui esito può essere solo un successo o un insuccesso. tutte le precedenti. eventi che si verificano successivamente ed indipendentemente in un intervallo di tempo. La probabilità di una serie di estrazioni da un mazzo di carte senza reinserimento si distribuisce seguendo: la distribuzione ipergeometrica. la distribuzione di Poisson. la distribuzione binomiale. la distribuzione normale. La distribuzione di probabilità di Poisson prende in considerazione l'indice lambda che rappresenta: la moda della distribuzione. la varianza di eventi che si verificano. la deviazione standard di eventi che si verificano. la media di eventi che si verificano in un dato lasso di tempo. La distribuzione binomiale riguarda: eventi il cui esito può essere solo un successo o un insuccesso. tutte le precedenti. eventi che non hanno relazioni temporali. eventi che si verificano successivamente ed indipendentemente in un intervallo di tempo. I valori che contraddistinguono una distribuzione di probabilità sono: moda e varianza. moda e deviazione standard. mediana e varianza. media e deviazione standard. Le distribuzioni di probabilità possono essere: né continue né discrete. continue o discrete. solo continue. solo discrete. Una distribuzione di probabilità è: una rappresentazione grafica della probabilità di un evento. una rappresentazione analitica della probabilità di un evento. un modello matematico che collega i valori di una variabile alle probabilità che possano essere osservati. un modello che collega i valori di una variabile alle probabilità che questa faccia parte del campione. Nelle distribuzioni di probabilità discrete: la variabile viene espressa su scala nominale. la variabile viene espressa su un scala continua. la variabile viene espressa su scala ordinale. la variabile viene misurata con valori numerici interi. La legge dei grandi numeri dice che: la media di un numero sufficiente di campioni è sufficientemente vicina alla media reale. la media di un piccolo campione è sufficientemente vicina alla media reale. la media di due eventi è sufficientemente vicina alla media reale. la somma di un numero sufficiente di campioni è sufficientemente vicina alla media reale. La distribuzione normale fa riferimento a variabili: nominali. continue. discrete. continue e discrete. Il punto più alto di una curva normale viene definito: asse delle y. punto di massimo. punto di flesso. asse delle x. Quando indichiamo una distribuzione normale riportiamo i valori di. media e mediana. moda e varianza. devianza a deviazione standard. media e deviazione standard. Moda, mediana e media non coincidono nella distribuzione di probabilità: normale standardizzata. nessuna delle alternative. normale. di Poisson. Moda, mediana e media coincidono nella distribuzione di probabilità: normale. ipergeometrica. di Poisson. binomiale. La deviazione standard dalla media rappresenta, nella curva normale: il punto più alto della distribuzione. l'asse delle y. lo zero assoluto. i punti di flesso. Due distribuzioni normali con medie diverse: avranno una diversa posizione sull'asse delle x. saranno uguali. sono considerate comunque standardizzate. avranno diversi punti di massimo. Due distribuzioni normali con diverse deviazioni standard: sono considerate comunque standardizzate. saranno uguali. avranno diversi punti di flesso. avranno una diversa posizione sull'asse delle x. Nella distribuzione normale moda, mediana e media rappresentano: l'asse delle x. tre distinti valori. i punti di flesso. il punto più alto della distribuzione. Usando la distribuzione normale standardizzata possiamo: confrontare la prestazione di due diversi soggetti allo stesso test. confrontare due diverse distribuzioni di probabilità. tutte le alternative sono corrette. confrontare punteggi a diversi test. La curva normale varia tra: più e meno uno. più e meno 100. più e meno infinito. più e meno 3. La distribuzione normale standardizzata: ha media 1 e deviazione standard che varia a seconda del campione. ha media 1 e deviazione standard 1. ha media 0 e deviazione standard 1. ha media e deviazione standard diverse a seconda del campione. L'area compresa fra la curva normale e l'asse delle x equivale ad una probabilità pari a: 0. 0.5. 100. 1. L'area compresa tra più e meno due deviazioni standard in una curva normale standardizzata è pari al: 99.73%. 68.26%. 50%. 95.45%. L'area compresa tra più e meno tre deviazioni standard in una curva normale standardizzata è pari al: 95.45%. 68.26%. 50%. 99.73%. L'area compresa tra più e meno una deviazione standard in una curva normale standardizzata è pari al: 50%. 99.73%. 68.26%. 95.45%. Le code della distribuzione normale: non toccano mai l'asse delle x. si incrociano con l'asse delle x. la distribuzione normale non ha code. non toccano mai l'asse delle y. Per la distribuzione normale standardizzata, usando delle specifiche tavole è possibile calcolare: l'area sottesa alla curva tra l'asse delle x e un dato valore. la media. l'area sopra la curva. l'area sottesa alla curva tra l'asse delle y e un dato valore. Il calcolo delle probabilità è: uno strumento irrazionale che permette di prendere decisioni in condizioni di certezza. uno strumento razionale che permette di prendere decisioni in condizioni di incertezza. uno strumento irrazionale che permette di prendere decisioni in condizioni di incertezza. uno strumento razionale che permette di prendere decisioni in condizioni di certezza. I punti z indicano. quante deviazioni standard il punteggio si discosta dalla media. La media dei punteggi di diversi soggetti ad un test. la differenza interquartile. i punteggi dei test in relazione alla distribuzione binomiale. I punti z fanno riferimento: alla curva normale standardizzata. alla curva normale. alla distribuzione binomiale. alla distribuzione ipergeometrica. i punti z vengono calcolati usando: moda e deviazione standard. mediana e moda. mediana e varianza. media e deviazione standard. Lo scopo della standardizzazione dei punteggi grezzi è: capire la relazione casuale tra le variabili. rendere dati diversi direttamente confrontabili. confrontare punteggi ottenuti allo stesso test da soggetti diversi. capire la relazione causale tra le variabili. Il campionamento può essere: probabilistico. entrambi. non probabilistico. nessuno dei due. Nel campionamento casuale la selezione può essere fatta: senza ripetizione. con ripetizione. nessuna delle due alternative. entrambe le alternative. Quando applichiamo la selezione senza ripetizione al campionamento casuale: la probabilità che ogni elemento venga estratto cambia ad ogni estrazione. la probabilità che ogni elemento venga estratto rimane costante ad ogni estrazione. già prima delle estrazioni ogni elemento ha una probabilità diversa di essere estratto. non è possibile conoscere la probabilità delle diverse estrazioni. Il campionamento casuale semplice ha il limite di: fornire un campione non rappresentativo della popolazione. richiedere elevati costi e tempi di realizzazione. raggiungere un limitato numero di soggetti. richiedere limitati costi e tempi di realizzazione. Il campionamento casuale può essere applicato se: entrambe le alternative. la popolazione è statisticamente omogenea. le unità statistiche sono individuabili mediante un numero. nessuna delle due alternative. Nel campionamento probabilistico ogni unità della popolazione ha. la stessa probabilità di fare parte del campione. una probabilità casuale e diversa di fare parte del campione. un probabilità che non può essere stimata di far parte del campione. una diversa probabilità di fare parte del campione. L'obiettivo del campionamento è: ottenere un campione rappresentativo della popolazione. ottenere un soggetto che riproduca le caratteristiche della popolazione. ottenere una popolazione rappresentativa del campione. ottenere solo un numero limitato di soggetti. Fare esperimenti sulla popolazione ha lo svantaggio di: richiedere tempi e costi molto elevati. richiedere tempi lunghi ma costi contenuti. richiedere tempi e costi molto limitati. coinvolgere pochi soggetti. La verifica delle ipotesi permette: basandosi sulla popolazione, di decidere se l'ipotesi fatta è accettabile anche a livello del campione. di stimare dal campione alcuni parametri della popolazione. basandosi sul campione, di decidere se l'ipotesi fatta è accettabile anche a livello della popolazione. di capire se il soggetto analizzato appartiene o meno alla popolazione. La stima campionaria permette: basandosi sulla popolazione, di decidere se l'ipotesi fatta è accettabile anche a livello del campione. di stimare della popolazione alcuni parametri del campione. di stimare dal campione alcuni parametri della popolazione. di capire se il soggetto analizzato appartiene o meno alla popolazione. L'inferenza statistica può riguardare: la verifica delle ipotesi. la stima campionaria. entrambe le alternative. nessuna delle due. L'inferenza statistica può essere definita come il procedimento che permette di: analizzare le risposte del gruppo di controllo per avere informazioni sul gruppo sperimentale. analizzare il campione per ottenere conclusioni circa la popolazione. analizzare la popolazione per ottenere conclusioni circa il campione. analizzare le risposte dei singoli soggetti per avere informazioni sulla distribuzione. Usando l'inferenza statistica può possiamo: usare i dati ottenuti dal campione per avere informazioni sulla popolazione. analizzare la distribuzione della popolazione per avere informazioni sui singoli soggetti. analizzare la distribuzione del campione per avere informazioni sui singoli soggetti. usare i dati ottenuti dalla popolazione per avere informazioni sul campione. Il campionamento probabilistico comprende: il campionamento standardizzato. il campionamento stratificato e a più stadi. il campionamento a scelta ragionata. tutti i precedenti. Stratificare una popolazione vuol dire: selezionare solo i soggetti volontari. dividerla in sottopopolazioni. rimuovere alcuni elementi perché non idonei. ordinare i membri secondo criteri prestabiliti. Nel campionamento stratificato l'estrazione casuale si applica: all'intero campione. ad ogni sottogruppo della popolazione. all'intera popolazione. non può essere applicata. Il campionamento stratificato si applica: a popolazioni molto piccole. a popolazioni molto ampie. a campioni molto ristretti. a campioni ampi. Il campionamento a più stadi prevede: la selezione di soggetti volontari. la divisione della popolazione in stadi sempre più piccoli. la divisione della popolazione in stadi sempre più grandi. la divisione della popolazione in gruppi secondo criteri casuali. Nel campionamento a più stadi è necessario che. le differenze tra i gruppi primari siano evidenti. non ci siano differenze tra i gruppi. non vengono prese in considerazione le differenze tra gruppi primari. le differenze tra i gruppi primari siano limitate. Durante le procedure di campionamento sistematico la popolazione: viene ordinata e numerata viene selezionare e le unità sono estratte ad intervalli regolari. viene estratta casualmente dal campione. viene dividere in stadi ed il campione è estratto casualmente all'interno di ogni stadio. viene esclusa completamente dallo studio. Il campionamento sistematico permette di: ordinare e numerare una popolazione e selezionare ad intervalli regolari le unità. selezionare solo i soggetti volontari. dividere la popolazione in stadi ed estrarre casualmente all'interno di ogni livello. estrarre casualmente i soggetti dalla popolazione. Nel campionamento non probabilistico a scelta ragionata: tutti i soggetti hanno la stessa probabilità di essere selezionati. il campione è formato solo da volontari. il campione è estratto in maniera casuale. vengono scelti elementi che rispondono a specifiche esigenze. Nel campionamento non probabilistico: non è possibile conoscere la probabilità di inclusione nel campione di ogni unità. tutti i soggetti hanno la stessa probabilità di essere selezionati. la probabilità di inclusione nel campione è dipende dal numero di livelli in cui è stata divisa la popolazione. è possibile conoscere la probabilità di inclusione nel campione di ogni unità. Nel campionamento sistematico il passo di campionamento è: il criterio con cui vengono divisi i livelli della popolazione. il salto che si compie nella selezione tra 2 unità. il criterio con cui vengono divisi gli stadi. la fase del processo in cui vengono selezionati i soggetti. Uno stimatore si dice distorto quando: la media calcolata sul campione è diversa dal corrispondente parametro della popolazione. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. la media calcolata sul campione è uguale al corrispondente parametro della popolazione. Uno stimatore si dice corretto quando: la media di tutte le stime di tutti i campioni è uguale al parametro della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. è meno disperso attorno al valore del parametro. la media calcolata sul campione è diversa dal corrispondente parametro della popolazione. Uno stimatore si dice efficiente quando: non è possibile calcolare la simmetria tra campione e popolazione. la media di tutte le stime di tutti i campione è uguale al parametro della popolazione. è meno disperso attorno al valore del parametro. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. Uno stimatore si dice consistente quando: è meno disperso attorno al valore del parametro. la media di tutte le stime di tutti i campione è uguale al parametro della popolazione. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. Più aumentiamo la numerosità del campione più la distribuzione della nostra variabile: si avvicinerà ad una distribuzione ipergeometrica. si avvicinerà ad una distribuzione normale. si discosterà dalla distribuzione normale. non sarà valutabile. Il parametro può essere definito con la lettera: theta. delta. alfa. beta. Il parametro è: una funzione delle variabili campionarie. il valore della funzione delle variabili campionarie. la media del campione. una costante della popolazione. Lo stimatore è: una costante della popolazione. una funzione delle variabili campionarie. la media del campione. il valore della funzione delle variabili campionarie. La stima è: il valore della funzione delle variabili campionarie. la media del campione. una costante della popolazione. una funzione delle variabili campionarie. Uno stimatore dovrebbe essere: distorto e consistente. corretto e inconsistente. corretto, efficiente e consistente. coretto, distorto ed efficiente. L'errore medio di campionamento si calcola a partire: dalla varianza corretta. dalla mediana corretta. dalla moda corretta. dalla media corretta. Ho stimato un parametro della popolazione da un campione di 72 casi e da uno di 270 , dove avremo il minor l'errore medio di campionamento?. entrambi avranno lo stesso errore medio di campionamento. campione di 72 casi. non è possibile conoscere a priori l'errore. campione di 270 casi. Per ridurre l'errore medio di campionamento è necessario: aumentare il campione. usare soggetti singoli. diminuire il campione. eliminare il campione. Quando indichiamo la stima puntuale di un parametro nei risultati del nostro esperimento indicheremo anche: il parametro originale. la deviazione standard. l'errore di campionamento medio. l'intervallo del parametro. La stima puntuale può essere calcolata: solo conoscendo informazioni sulla popolazione. senza conoscere informazioni sulla popolazione. senza conoscere informazioni sul campione. solamente a partire dai parametri da stimare della popolazione. Possiamo parlare di stime di intervallo di un parametro quando: la stima si esprime con un valore numerico preciso. si determina un intervallo che contiene il parametro. si determina un intervallo da cui è escluso il parametro. non è possibile definire un valore. L'errore medio di campionamento indica: l'ampiezza dell'errore relativo all'uso della popolazione per stimare un parametro del campione. l'errore in cui incappiamo quando non assegniamo il campione in maniera casuale alle diverse condizioni sperimentali. l'errore standard. l'ampiezza dell'errore relativo all'uso del campione per stimare un parametro della popolazione. Possiamo parlare di stime puntuali di un parametro quando: si determina un intervallo che contiene il parametro. non è possibile definire un valore. si determina un intervallo da cui è escluso il parametro. la stima si esprime con un valore numerico preciso. La stima di un parametro della popolazione può essere: nessuna delle due. entrambe. puntuale. di intervallo. I parametri della popolazione sono: dipendono dal campionamento. costanti. dipendono dall'esperimento. dipendono dal campione. Il livello di fiducia viene indicato con la lettera greca: alfa. theta. lambda. beta. La zona dell'intervallo di fiducia in cui è più probabile che il nostro valore ricada è definita come: "alfa più beta". alfa. "alfa diviso due". "uno meno alfa". L'errore medio di campionamento: viene stimato usando le medie dei campioni. viene stimato usando le differenze interquartili dei campioni. viene stimato usando le varianze corrette dei campioni. viene stimato usando le varianze dei campioni. Per stimare l'intervallo di una media è necessario decidere: il livello di variabilità. il livello di tolleranza. il livello di fiducia. il livello di deviazione standard. Per stimare l'intervallo di una media è necessario conoscere: la stima puntuale. il numero esatto di elementi non inclusi nella popolazione. la distribuzione della media campionaria intorno a µ. il livello di tolleranza. Quando stabiliamo un livello di fiducia pari a 0,95 per la stima a intervallo significa che. su 100 medie di campioni 95 cadono nell'intervallo e 5 fuori. su 100 medie di campioni solo una cadrà dentro l'intervallo. su 100 medie di campioni 99 cadono nell'intervallo e 1 cade fuori. Su 100 medie non possiamo conoscerne solo 5. Quando stabiliamo un livello di fiducia pari a 0,99 per la stima a intervallo significa che: su 100 medie di campioni 95 cadono nell'intervallo e 5 fuori. su 100 medie di campioni 99 cadono nell'intervallo e 1 cade fuori. Su 100 medie non possiamo conoscerne una sola. su 100 medie di campioni solo una cadrà dentro l'intervallo. Il teorema del limite centrale afferma che: le medie di campioni sufficientemente grandi sono distribuite normalmente. non si può conoscere a priori la distribuzione di un campione. le medie di campioni piccoli sono distribuite normalmente. le medie di tutti i tipi di campioni sono distribuite normalmente. Solitamente le ipotesi statistiche vengono verificate usando: il campione. soggetti singoli. la popolazione. la media. Il procedimento della verifica delle ipotesi può essere. entrambi. non parametrico. nessuna delle due. parametrico. Il procedimento di verifica delle ipotesi parametrico si applica quando: abbiamo variabili qualitative. non si conosce la distribuzione di probabilità. è nota la distribuzione di probabilità. non è presente un campione. H0 rappresenta: L'ipotesi alternativa. entrambe. L'ipotesi nulla. nessuna delle due. Il procedimento di verifica delle ipotesi non parametrico si applica quando. è nota la distribuzione di probabilità. non è presente un campione. non si conosce la distribuzione di probabilità. abbiamo variabili senza dati mancanti. La verifica delle ipotesi si basa su una decisione tra due ipotesi definite dal ricercatore: Ipotesi nulla (H0) e ipotesi alternativa (H1). Ipotesi di partenza (H1) e ipotesi di arrivo (H0). Ipotesi di partenza (H0) e ipotesi di arrivo (H1). Ipotesi nulla (H1) e ipotesi alternativa (H0). L'ipotesi nulla è anche detta: ipotesi delle differenze. ipotesi dell'uguaglianza o delle non differenze. sperimentale o di ricerca. H1. L'ipotesi alternativa: è anche detta ipotesi dell'uguaglianza o delle non differenze. è falsificata quando viene falsificata l'ipotesi nulla. è accettata quando viene falsificata l'ipotesi nulla. è accettata quando viene accettata l'ipotesi nulla. L'ipotesi nulla e ipotesi alternativa. sono esaustive. nessuna delle due. entrambe le alternative proposte sono corrette. sono mutualmente escludentesi. La regione di accettazione rappresenta: la probabilità di accettare l'ipotesi alternativa. la probabilità di commettere un errore. la probabilità di accettare l'ipotesi nulla. a probabilità di avere una media maggiore di 0. La regione di rifiuto rappresenta: la probabilità di commettere un errore. la probabilità di accettare l'ipotesi alternativa. la probabilità di accettare l'ipotesi nulla. la probabilità di avere una media maggiore di 1. H1 rappresenta: nessuna delle due. L'ipotesi alternativa. entrambe. L'ipotesi nulla. L'errore di seconda specie si ha quando: si rifiuta l'ipotesi nulla quando è falsa. si rifiuta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è falsa. L'errore di prima specie si ha quando: si rifiuta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è falsa. si rifiuta l'ipotesi nulla quando è falsa. si accetta l'ipotesi nulla quando è vera. Quando accettiamo l'ipotesi nulla: accettiamo anche l'ipotesi alternativa. non possiamo trarre conclusioni circa l'ipotesi alternativa. rifiutiamo automaticamente l'ipotesi alternativa. dobbiamo fare un altro test per capire se accettare l'ipotesi alternativa. Quando rifiutiamo l'ipotesi nulla: dobbiamo fare un altro test per capire se accettare l'ipotesi alternativa. accettiamo automaticamente l'ipotesi alternativa. non possiamo trarre conclusioni circa l'ipotesi alternativa. rifiutiamo anche l'ipotesi alternativa. Per ridurre sia l'errore di prima che di seconda specie dobbiamo: selezionare dalla popolazione solo soggetti volontari. ridurne uno ridurrà automaticamente anche l'altro. possiamo intervenire solo sull'errore di prima specie. aumentare la dimensione del campione. L'ipotesi alternativa permette di ipotizzare che la stima campionaria: sia minore o maggiore del elativo valore della popolazione. entrambe. nessuna delle due. sia diverso al relativo valore della popolazione. Quando l'ipotesi alternativa afferma che i due valori sono diversi applicheremo: test standardizzato. test unilaterale destro. test unilaterale sinistro. un test bilaterale. Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia minore del valore della popolazione useremo: test standardizzato. test bilaterale. test unilaterale destro. test unilaterale sinistro. Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia maggiore del valore della popolazione useremo: test unilaterale destro. test bilaterale. test unilaterale sinistro. test standardizzato. Quando non conosciamo la varianza della popolazione con cui vogliamo confrontare il nostro campione con meno di 30 soggetti: la stimeremo usando quella del campione. usiamo della del campione perché assumiamo che siano equivalenti. tutte le alternative. non possiamo fare nessun calcolo. Nella distribuzione "t di student". la curva cambia in base alla numerosità. esiste una sola curva possibile. la curva è indipendente dalla numerosità. la curva è fissa. . Dalle tavole della t di student otteniamo: Il valore critico di t che fa riferimento alla distribuzione teorica. il valore di t da confrontare con il valore critico di t. la varianza del campione. Il valore critico di t che fa riferimento ai dati ottenuti. Quando usiamo il test t per capire se un campione appartiene ad una popolazione: non conosciamo la varianza della popolazione. non siamo interessati alla varianza della popolazione. conosciamo la varianza della popolazione. non usiamo la varianza né del campione né della popolazione. I gradi di libertà della t di student si calcolano: N-1. N/1. N+1. N=n. Nella distribuzione "t di student" la numerosità del campione: equivale al valore critico. ci permette di calcolare i gradi di libertà. equivale ai gradi di libertà della distribuzione. è un valore che non va mai tenuto in considerazione. Nelle tabelle per calcolare il valore critico del mio test t di Student posso testare: solo ipotesi ad una coda. solo ipotesi a due code. nessun tipo di ipotesi. ipotesi ad una e due code. Le tavole della t di student ci permettono di verificare: solo ipotesi bidirezionali. sia ipotesi monodirezionali che bidirezionali. solo ipotesi monodirezionali. né ipotesi monodirezionali né bidirezionali. . Quando ho un campione con meno di 30 soggetti i dati seguono la distribuzione: entrambe. nessuna delle due. normale. t di student. Se il valore calcolato di t è maggiore del valore critico di t: accetterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. rifiuterò l'ipotesi nulla. rifiuterò l'ipotesi alternativa. Quando voglio verificare se il mio campione, con meno di 30 soggetti, appartiene alla popolazione applicherò: t test. anova. test della binomiale. chi quadro. Se il valore critico di t è minore del valore calcolato di t: rifiuterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. accetterò l'ipotesi nulla. rifiuterò l'ipotesi alternativa. Se il valore critico di t è maggiore del valore calcolato di t: accetterò l'ipotesi alternativa. rifiuterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. accetterò l'ipotesi nulla. Quando il chi-quadrato «calcolato» è maggiore del chi-quadrato «critico»: rifiutiamo H0. tutte le alternative. rifiutiamo H1. accettiamo H0. Quando il chi-quadrato «calcolato» è minore del chi-quadrato «critico»: rifiutiamo H0. nessuna delle alternative. accettiamo H1. accettiamo H0. Quando il chi-quadrato «critico» è minore del chi-quadrato «calcolato»: accettiamo H0. tutte le alternative. rifiutiamo H0. rifiutiamo H1. I gradi di libertà del chi-quadrato si calcolano: (numero di righe + 1) x (numero di colonne + 1). (numero di righe * 1) x (numero di colonne * 1). (numero di righe / 1) x (numero di colonne / 1). (numero di righe - 1) x (numero di colonne - 1). Per verificare la nostra ipotesi dobbiamo confrontare i valori del chi-quadrato detti: "ottenuto" e "tabellare". "ottenuto" e "critico". "calcolato" e "tabellare". "calcolato" e "critico". Il test del chi-quadrato non può essere usato: nessuna delle alternative. con variabili ordinali. con variabili nominali. con variabili a rapporti equivalenti. Per calcolare gli indici necessari per il test chi-quadrato i dati devono essere organizzati: usando una tabella per ogni variabile analizzata. in tabelle di contingenza. in grafici a torta. dividendo i numeri pari da quello dispari. Il test del chi-quadrato permette: di verificare le differenze tra valori teorici. di verificare le differenze tra valori osservati e valori teorici. tutte le alternative. di verificare le differenze tra valori osservati. La retta di regressione è rappresentata con quale equazione?. y = b + ax. y = a + bx. x = a + bx. x = b + ay. L'intercetta è rappresentata dalla lettera: y. a. x. b. La retta di regressione può essere calcolata usando: il t test. il metodo dei massimi quadrati. il metodo dei minimi quadrati. la correlazione. Quando il coefficiente di regressione è pari a zero la retta: sarà parallele agli assi cartesiani. diventerà una linea curva. sarà esterne al piano cartesiano. perderà la loro forma diventando linee spezzate. Il coefficiente di regressione indica: di quanto varia la Y al variare di una unità di X. entrambe le alternative. nessuna delle due alternative. se Y è crescente o decrescente. Per rappresentare i valori durante l'analisi della regressione possiamo usare. diagrammi a dispersione. tabelle a singola o doppia entrata. entrambe le alternative. nessuna delle due alternative. Il coefficiente di regressione nell'equazione della retta è rappresentato dalla lettera. y. b. a. x. La regressione lineare può essere rappresentata da: una curva. una retta. una linea spezzata. una parabola. Quando analizziamo il legame tra due variabili queste possono derivare: nessuna delle due alternative. due popolazioni diverse. una stessa popolazione. entrambe le alternative. La correlazione fra le due variabili esprime: l'intensità del legame. la direzione del legame. la causalità del legame. un rapporto di causa-effetto. La funzione di regressione più usata è quella: parabolica. lineare. curvilinea. standardizzata. La funzione di regressione permette di: valutare il valore della variabile dipendente al variare della variabile indipendente. valutare il valore della variabile dipendente al variare dell'atra variabile dipendente. valutare il valore di una variabile indipendente al variare dell'altra variabile indipendente. valutare il valore della variabile indipendente al variare della variabile dipendente. La correlazione ci permette di: misurare la forza o l'intensità del legame fra due variabili. nessuna delle due. capire la relazione causale tra le variabili. entrambe. La covarianza è: il valore degli scarti di y su x. il valore minimo del prodotto degli scarti corrispondenti di X e di Y. il valore massimo del prodotto degli scarti corrispondenti di X e di Y. il valore medio del prodotto degli scarti corrispondenti di X e di Y. l coefficiente di correlazione lineare ci dice. come le due variabili variano congiuntamente. la media del campione. come le due variabili variano singolarmente. come le due variabili si relazionano con una terza variabile. Si ha una correlazione inversa quando il coefficiente di correlazione lineare di Bravais-Pearson: è uguale a 0. è sia minore che maggiore di zero. è minore di 0. è maggiore di 0. Per analizzare la variabilità congiunta di due variabili usiamo: l'analisi fattoriale. la mediana. la deviazione standard. la covarianza. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a zero: non abbiamo informazioni per capire se è presente o meno non esiste correlazione lineare. esiste correlazione lineare. c'è una correlazione inversa tra le due variabili. non esiste correlazione lineare. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a -1: correlazione imperfetta. correlazione estrema. correlazione perfetta inversa. assenza di correlazione. . Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a +1: correlazione perfetta diretta. correlazione estrema. correlazione imperfetta. assenza di correlazione. Il coefficiente di correlazione lineare di Bravais-Pearson può variare. fra -1 e +1. fra 3 e -3. fra «meno infinito» e «più infinito». fra 0 e 1. Si ha una correlazione diretta quando il coefficiente di correlazione lineare di Bravais-Pearson: è uguale a 0. è sia minore che maggiore di zero. è maggiore di 0. è minore di 0. . Il coefficiente di correlazione lineare di Bravais-Pearson rappresenta: la retta di regressione. la covarianza. la deviazione standard. la covarianza normalizzata. Per analizzare la correlazione solitamente si usa: il coefficiente di correlazione lineare di Bravais-Pearson. la media ponderata. La retta di regressione. l'anova. La covarianza varia: fra 0 e 1. fra «meno infinito» e «più infinito». fra 3 e -3. fra -1 e +1. La covarianza può essere: solo positiva o negativa. positiva, negativa o nulla. solo positiva o nulla. lineare o curvilinea. Quando il coefficiente di correlazione r è uguale a 0 si parla di: correlazione perfetta. correlazione estrema. correlazione imperfetta. assenza di correlazione. La varianza non spiegata può dipendere: da errori emersi durante la procedura. da altre variabili non controllate. entrambe. nessuna delle due. La varianza spiegata è: la variabilità di Y che non dipende dalla variabile X. l'errore standard. equivalente al coefficiente angolare. la variabilità della Y dovuta alla variabile X. La varianza non spiegata è: equivalente all'intercetta. la variabilità della Y dovuta alla variabile X. l'errore standard. la variabilità di Y che non dipende dalla variabile X. La varianza totale è data da: entrambe. nessuna delle due. la varianza non spiegata. la varianza spiegata. Il coefficiente di indeterminazione ci permette di definire: l'errore standard. la varianza di Y che dipende dalla variabile X. la varianza di Y che non dipende dalla variabile X. la varianza normalizzata. Il coefficiente di determinazione ci permette di definire: l'errore standard. la varianza dovuta allo scarto fra Y e X. la varianza dovuta a X. la varianza dovuta alla dipendenza lineare fra Y e X. Il coefficiente di determinazione è dato da: "r diviso due". alfa. "x" medio. "r" al quadrato. Il coefficiente di indeterminazione è dato da: 1-"r" al quadrato. "r diviso due". delta. "r" al quadrato. Quando voglio analizzare se due variabili rilevate su un solo campione sono tra loro correlate le organizzerò: in un tabella a singola entrata. in una tabella a doppia entrata. in un diagramma a torta. in una tabella semplice. Una varabile A è indipendente da una variabile B quando: per ogni valore di A le frequenze relative non dipendono dai valori di B. le frequenze relative di A e B sono uguali. per ogni valore di A le frequenze relative dipendono dai valori di B. le frequenze relative di A e B sono diverse. Il coefficiente b1 è detto: coefficiente di regressione di Y su X. intercetta di y. coefficiente di regressione di X su Y. intercetta di x. . Quando analizziamo la dipendenza tra due variabili possiamo rappresentarle attraverso: grafici a torta. diagrammi di dispersione. istogrammi. linee di regressione. Nella linea di regressione di y rispetto a x i punti vengono rappresentati da ogni valore di x e: le mediane di y. la media ponderata dei valori della x relativi ad ogni livello di y. la media ponderata dei valori della Y relativi ad ogni livello di x. la moda di y. Nella linea di regressione di x rispetto a y i punti vengono rappresentati da ogni valore di x e: la media ponderata dei valori della x relativi ad ogni livello di y. la moda di y. le mediane di y. la media ponderata dei valori della Y relativi ad ogni livello di x. Usiamo la correlazione lineare si analizza quando, date due variabili x e Y: volgiamo verificare delle ipotesi. accettiamo H0. rifiutiamo H0. vogliamo capire se c'è un legame tra le due variabili. Il coefficiente di correlazione lineare di Bravais-Pearson può essere calcolato usando: coefficienti di regressione. covarianza e deviazione standard. nessuna delle alternative. entrambe le alternative proposte. . Possiamo usare i punti centili per: nessuna delle due. calcolare un cut-off. entrambe. capire se un campione appartiene ad una popolazione. . Il cut-off serve per: calcolare il coefficiente di correlazione. capire se un campione appartiene ad una popolazione. calcolare il coefficiente di regressione. Identificare i punteggi che si collocano sopra e sotto un dato numero. I test non parametrici: non implicano la stima di parametri statistici. implicano la stima di parametri statistici. nessuna delle precedenti. non sono mai equivalenti a test parametrici. Il test t di Wilcoxon è l'alternativa non parametrica del test: di Bravais-Pearson. t di Wilcoxon. di correlazione lineare. t di Student. Il test U di Mann-Whitney è l'alternativa non parametrica del test: di correlazione lineare. t di Student. t di Wilcoxon. di Bravais-Pearson. Quando uso il test t di Wilcoxon: posso rigettare H0 se: la somma dei ranghi positivi o la somma dei ranghi negativa è minore o uguale al valore critico tabulare. la somma dei ranghi positivi o la somma dei ranghi negativa è maggiore al valore critico tabulare. la somma delle medie è minore o uguale al valore critico tabulare. la somma delle medie è maggiore al valore critico tabulare. Nelle tabelle per calcolare il valore critico tabulare del mio test t di Wilcoxon posso testare: nessun tipo di ipotesi. solo ipotesi a due code. solo ipotesi ad una coda. ipotesi ad una e due code. Quando uso il test t di Wilcoxon: devo confrontare il coefficiente angolare con un valore critico tabulare. devo confrontare il coefficiente di correlazione con un valore critico tabulare. devo confrontare la somma dei ranghi (positivi e negativi) con un valore critico tabulare. devo confrontare il coefficiente di regressione con un valore critico tabulare. Per confrontare due medie di campioni dipendenti con test non parametrici useremo: il coefficiente di correlazione lineare di Bravais-Pearson. Il test U di Mann-Whitney. il test t di Wilcoxon. tutte le alternative. Per confrontare due medie di campioni indipendenti con test non parametrici useremo: il test t di Wilcoxon. Il test U di Mann-Whitney. il coefficiente di correlazione lineare di Bravais-Pearson. tutte le alternative. Tra i test non parametrici abbiamo: entrambi. Test di conformità. nessuna delle precedenti. Test equivalenti di test parametrici. Applichiamo statistiche non parametriche quando: il campione supera le 30 unità. non si assume l'ipotesi che i dati provengano da una popolazione normale o gaussiana. si assume l'ipotesi che i dati provengano da una popolazione normale o gaussiana. c'è indipendenza fra media e varianza. Come esito di una prova sperimentale svolta per verificare una ipotesi si può ottenere che. entrambe le alternative. l'ipotesi di partenza è confermata. l'ipotesi di partenza non è confermata. nessuna delle alternative. Nella Teoria Fisheriana, l'ipotesi nulla H0. ipotizza la presenza di differenze dovuto a un trattamento. entrambe le alternative. nessuna delle alternative. ipotizza l'assenza di differenze dovute a un trattamento. Nella Teoria Fisheriana, l'ipotesi nulla H1. ipotizza l'assenza di differenze dovute a un trattamento. entrambe le alternative. nessuna delle alternative. ipotizza la presenza di differenze dovuto a un trattamento. La Teoria Fisheriana ha come punto di partenza l'individuazione. dell'ipotesi alternativa. dell'ipotesi nulla. del campione da testare. del test statistico. La probabilità che si presenti un errore del primo tipo è detta. errore standard. significatività. potenza. varianza. Se come risultato di un esperimento otteniamo un valore di significatività inferiore a 0,05. falsifichiamo l'ipotesi alternativa. nessuna delle alternative. confermiamo l'ipotesi nulla. falsifichiamo l'ipotesi nulla. Se come risultato di un esperimento otteniamo un valore di significatività superiore a 0,05. nessuna delle alternative. confermiamo l'ipotesi nulla. confermiamo l'ipotesi alternativa. falsifichiamo l'ipotesi nulla. La probabilità di falsificare l'ipotesi nulla quando questa è falsa è detta. significatività. varianza. potenza. test statistico. La potenza dipende da: numerosità del campione. quanto è la differenza minima che riteniamo non trascurabile da un punto di vista pratico. tutte le alternative. variabilità della variabile misurata. La potenza è. La probabilità di falsificare l'ipotesi nulla quando questa è falsa. la variabilità dei dati nel campione. la forza del legame tra due variabili. La probabilità che si presenti un errore del primo tipo. Quando si traggono conclusioni attraverso una prova sperimentale gli errori decisionali. possono essere falsi positivi o falsi negativi. possono essere solo falsi negativi. possono essere solo falsi positivi. non possono verificarsi. Le scale di misura in psicologia possono essere. nominali. tutte le alternative. a intervalli o rapporti equivalenti. ordinali. Una scala di misura in cui i numeri sono definiti in modo che la differenza tra i punteggi indica l’ampiezza dell’intervallo che li separa è detta. nominale. nessuna delle alternative. a intervalli equivalenti. ordinale. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e uno 0 assoluto è detta. a intervalli equivalenti. nominale. a rapporti equivalenti. ordinale. Una caratteristica è definita variabile se. può essere misurata solo con metodi qualitativi. si manifesta in una sola modalità. si manifesta in almeno due modi diversi. non può essere misurata. La grandezza di una casa in metri quadri è su scala. a intervalli equivalenti. nominale. ordinale. a rapporti equivalenti. Una scala di misura in cui i numeri rappresentano la distanza da uno 0 assoluto non arbitrario è detta. a intervalli equivalenti. a rapporti equivalenti. ordinale. nominale. Una caratteristica è definita costante se. può essere misurata solo con metodi qualitativi. non può essere misurata. si manifesta in una sola modalità. si manifesta in almeno due modalità. Una scala di misura costituita da numeri disposti in modo da riflettere una graduatoria è detta. ordinale. a intervalli equivalenti. a rapporti equivalenti. nominale. La scala di misura ordinale. nessuna delle alternative. ha intervalli tra i numeri della stessa ampiezza. colloca i casi in categorie non ordinabili. permette di ordinare i valori dal più piccolo al più grande. Nella scala di misura nominale le categorie. non possono essere ordinate. non indicano una quantità. entrambe le alternative. nessuna delle alternative. La scala di misura nominale. di tipo quantitativo. non viene utilizzata in statistica. di tipo qualitativo. è utilizzata per i punteggi ai test. La scala di misura che ha intervalli tra i numeri della stessa ampiezza e non ha uno 0 assoluto è detta. nominale. a rapporti equivalenti. a intervalli equivalenti. ordinale. La variabile "Paese di origine" che ha come modalità "Italia; altro Paese Europeo; altro Paese Extra-europeo" è misurata su scala. ordinale. a intervalli equivalenti. a rapporti equivalenti. nominale. La somma di tutte le frequenze è uguale. alla media del campione. alla mediana del campione. alla varianza del campione. alla numerosità del campione. La frequenza è. il numero delle unità statistiche in cui si presenta una modalità di una variabile. il conteggio di quanto spesso una cosa si verifica all'interno dei nostri dati. entrambe le alternative. nessuna delle alternative. Si può calcolare la frequenza di variabili su scala. a intervalli equivalenti. nominale. tutte le alternative. ordinale. Il numero di volte in cui si presenta un punteggio o una modalità di risposta è. la frequenza. la media. la varianza. il range. Per una variabile quantitativa è possibile calcolare. le frequenze percentuali. tutte le alternative. le frequenze cumulate. le frequenze assolute. La somma delle frequenze di una categoria e di tutte le precedenti è. la frequenza percentuale. la frequenza assoluta. nessuna delle alternative. la frequenza cumulata. La frequenza espressa come percentuale sul totale delle frequenze è. nessuna delle alternative. la frequenza assoluta. la frequenza cumulata. la frequenza percentuale. Per variabili quantitative si possono utilizzare. nessuna delle alternative. grafici a barre. grafici a torta. istogrammi. Per variabili qualitative o nominali si possono utilizzare. entrambe le alternative. grafici a barre. grafici a torta. nessuna delle alternative. Dividendo la somma dei punteggi per il loro numero si ottiene. la moda. la varianza. la mediana. la media (in paniere: la mediana). Il punteggio o categoria più frequente di una variabile è. la varianza. la media. la mediana. la moda. La mediana è. la somma dei punteggi diviso il loro numero. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. Il punteggio o categoria più frequente di una variabile. la differenza tra il punteggio più grande e il punteggio più piccolo. La mediana è. il valore che bipartisce la distribuzione. il valore non inferiore a metà dei valori e non superiore all'altra metà. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo. tutte le alternative. Il punteggio centrale quando i punteggi sono ordinati dal più grande al più piccolo è. la moda. il range. la mediana. la media. La media è un indice di. dispersione. significatività. tendenza centrale. frequenza. La varianza è un indice di. significatività. tendenza centrale. dispersione. frequenza. Con le variabili nominali o qualitative si può calcolare. la media. la varianza. nessuna delle alternative. la mediana. Con le variabili nominali o qualitative si può calcolare. la media. tutte le alternative. la mediana. la moda. La somma degli scarti dalla media elevati al quadrato divisa per il numero di punteggi è. la devianza media. il range. la mediana. la varianza. La varianza. tutte le alternative. è un indice di dispersione. è la somma delle deviazioni dalla media elevate al quadrato divisa per il numero dei punteggi. considera tutti i punteggi, non solo quelli estremi. l'intervallo dal punteggio più grande al punteggio più piccolo di una variabile è. la deviazione standard. il range. la varianza. la devianza media. Il range. tutte le alternative. è l'intervallo dal punteggio più grande a quello più piccolo. è molto influenzato dai casi estremi. non considera tutti i punteggi, ma solo quelli estremi. La skewness. può essere positiva. indica quanto la distribuzione è asimmetrica. può essere negativa. tutte le alternative. La curtosi indica. quanto una distribuzione è simmetrica rispetto al punto mediano. la varianza della distribuzione normale. se la curva è più ripida o più piatta rispetto alla distribuzione normale. la media della distribuzione normale. La skewness indica. la media della distribuzione normale. la varianza della distribuzione normale. quanto una distribuzione è simmetrica rispetto al punto mediano. se la curva è più ripida o più piatta rispetto alla distribuzione normale. L'indice che fornisce informazioni circa la simmetria di una distribuzione di punteggi è. la skewness. la curtosi. la varianza. la devianza. Per sapere se una curva di discosta dalla distribuzione normale utilizzo i valori. solo dell'asimmetria. nessuna delle alternative. dell'asimmetria (skewness) e della curtosi. solo della curtosi. In una curva normale. punteggi estremi e punteggi intorno alla media hanno frequenze simili. nessuna delle alternative. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. sono più frequenti i punteggi intorno alla media e meno frequenti i punteggi estremi. In una curva perfettamente normale. media, mediana e moda coincidono. mediana e moda coincidono. media e mediana coincidono. media e moda coincidono. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. nessuna delle alternative. sull'asse Y sono riportati i punteggi. sull'asse X sono riportate le frequenze. sull'asse Y sono riportate le frequenze. In un istogramma che rappresenta la distribuzione di frequenza dei punteggi. sull'asse X sono riportate le frequenze. sull'asse Y sono riportati i punteggi. nessuna delle alternative. sull'asse X sono riportati i punteggi. L'asimmetria (skewness) si ha quando. ci sono più punteggi alla sinistra della moda. nessuna delle alternative. entrambe le alternative. ci sono più punteggi alla destra della moda. La curva normale si caratterizza per. essere simmetrica. tutte le alternative. avere valori di media, mediana e moda che coincidono. essere a forma di campana. L'indice di posizione che indica la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse all'interno di una distribuzione ordinata è detto. deviazione standard. quantile. varianza. media. I quantili. dividono la distribuzione in n parti uguali. tutte le alternative. sono indici di posizione. indicano la percentuale di valori che si trova al di sopra e al di sotto del valore di interesse. Sono tipologie di quantili. tutte le alternative. i percentili. i decili. i quartili. La curtosi. tutte le alternative. può essere negativa. può essere positiva. indica se la curva è più ripida o più piatta rispetto alla distribuzione normale. Una distribuzione di frequenza può essere. tutte le alternative. bimodale. unimodale. multimodale. In una distribuzione di frequenze. possono esserci al massimo 3 mode. possono esserci al massimo 2 mode. possono esserci più mode. può esserci una sola moda. Una distribuzione di frequenze è definita multimodale quando. sono presenti 2 mode. non sono presenti mode. è presente 1 moda. sono presenti più di 2 mode. Per sapere qual è il quoziente di intelligenza del 70% della popolazione calcolo. la media. la varianza. la deviazione standard. i percentili. i valori che dividono la distribuzione in 100 parti uguali sono detti. decili. percentuali. decimi. percentili. Quale degli indici di tendenza centrale coincide con il cinquantesimo percentile?. nessuna delle alternative. la mediana. la media. la moda. La mediana coincide con. il quinto decile. il cinquantesimo percentile. tutte le alternative. il secondo quartile. Per calcolare il primo quartile. individuo il valore della posizione del primo quantile nelle frequenze assolute. individuo il valore della posizione del primo quantile nelle frequenze cumulate. è necessario conoscere la mediana. è necessario conoscere la varianza. In una distribuzione dei risultati di un test il venticinquesimo percentile coincide con il punteggio 45. Ciò significa che. il 45% dei soggetti ottiene un punteggio al massimo di 25. il punteggio 45 divide in due parti uguali la distribuzione. il 25% dei soggetti ottiene un punteggio maggiore di 45. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 45. In una distribuzione dei risultati di un test il settantesimo percentile coincide con il punteggio 90. Ciò significa che. il punteggio 90 divide in due parti uguali la distribuzione. il 70% dei soggetti ottiene un punteggio maggiore di 90. il 90% dei soggetti ottiene un punteggio al massimo di 70. il 70% dei soggetti ottiene un punteggio che arriva al massimo a 90. In una distribuzione dei risultati di un test il primo quartile coincide con il punteggio 20. Ciò significa che. il 25% dei soggetti ottiene un punteggio maggiore di 20. il 20% dei soggetti ottiene un punteggio al massimo di 25. il 25% dei soggetti ottiene un punteggio che arriva al massimo a 20. il punteggio 20 divide in due parti uguali la distribuzione. I percentili permettono di. indicare la collocazione di un soggetto rispetto al resto del campione. nessuna delle alternative. entrambe le alternative. esprimere il punteggio ottenuto da un soggetto rispetto a quello ottenuto dal resto del campione. La funzione di distribuzione. ha valore iniziale 0 e valore finale 1. tutte le alternative. è sempre crescente. è una funzione cumulativa. La funzione che rappresenta la probabilità che la variabile assuma un valore minore o uguale a un determinato valore X è detta. funzione di distorsione. funzione di distinzione. funzione di distribuzione. funzione di dispersione. Per calcolare il punteggio z applico la formula. z=(X-Xmedio)/dev. Standard. z=(X-Xmedio)/varianza. z=(X+Xmedio)/dev. Standard. z=(Xmedio)/dev. Standard. La deviazione standard. entrambe le alternative. nessuna delle alternative. è la deviazione media dalla media. è l'unità di misura standard in statistica. Se un soggetto ottiene un punteggio z = -1,7 significa che. il punteggio medio della distribuzione è -1,7. il soggetto ha un punteggio medio di -1,7. Il soggetto ha un punteggio inferiore di 1,7 deviazioni standard rispetto alla media. Il soggetto ha un punteggio superiore di 1,7 deviazioni standard rispetto alla media. L'indice che misura la quantità media della quale i punteggi differiscono dal punteggio medio è. la media. il quantile. il range. la deviazione standard. La deviazione standard misura. la quantità media della quale i punteggi differiscono dal punteggio più elevato. la quantità media della quale i punteggi differiscono dal punteggio medio. la quantità media della quale i punteggi differiscono dal punteggio mediano. la quantità media della quale i punteggi differiscono dal punteggio più basso. La deviazione standard. assume l'unità di misura delle variabili sulle quali è calcolata. tutte le alternative. è la deviazione media dalla media. è l'unità di misura standard in statistica. La radice quadrata delle deviazioni dalla media al quadrato è. il range. la varianza. il quantile. la deviazione standard. Il punteggio z indica. il numero di deviazioni standard di cui un punteggio si discosta dalla mediana. il numero di percentili di cui un punteggio si discosta dalla media. il numero di deviazioni standard di cui un punteggio si discosta dalla media. il numero di quantili di cui un punteggio si discosta dalla media. Il numero di deviazioni standard di cui un punteggio si discosta dalla media è. il punteggio z. il percentile. il range. il quantile. La formula (X-Xmedio)/dev. Standard permette di calcolare. i quantili. il punteggio z. il range. il punteggio medio. I punteggi z sono utili perché permettono di. conoscere quanto si discosta un punteggio dalla media della distribuzione. confrontare i risultati ottenuti da un soggetto a due test diversi. confrontare variabili misurate con unità di misura diverse. tutte le alternative. In una distribuzione normale, i punteggi z maggiori di 2 sono considerati. i punteggi più frequenti. piuttosto rari e atipici. piuttosto frequenti e tipici. i punteggi medi. Per calcolare il punteggio z di uno specifico punteggio x è necessario conoscere. nessuna delle alternative. la deviazione standard della variabile. entrambe le alternative. la media della variabile. Se un soggetto ottiene un punteggio z = 1,5 significa che. il soggetto ha un punteggio medio di 1,5. Il soggetto ha un punteggio inferiore di 1,5 deviazioni standard rispetto alla media. Il soggetto ha un punteggio superiore di 1,5 deviazioni standard rispetto alla media. il punteggio medio della distribuzione è 1,5. Le tabelle di significatività della distribuzione normale standard riportano. i valori del chi quadro. la percentuale di punteggi corretti. i valori della F di Fisher. la percentuale di punteggi che sono maggiori di un determinato punto z. Nella distribuzione normale standard ha punteggio z = 0. la media. la mediana. la moda. tutte le alternative. Nella distribuzione normale standard. nessuna delle alternative. media, mediana e moda hanno punteggio z = 0. entrambe le alternative. circa il 68% dei punteggi è compreso tra z = -1 e z =1. La distribuzione normale standard. ha media 1 e deviazione standard 1. ha media 1 e deviazione standard 0. ha media 0 e deviazione standard 0. ha media 0 e deviazione standard 1. La curva dei frequenza dei punteggi z che assume una distribuzione normale è detta. distribuzione normale standard. standardizzazione. dispersione normale standard. deviazione standard. La deviazione standard di un punteggio coincide con la media della distribuzione è. -1. non calcolabile. 1. 0. Un punteggio ha deviazione standard = 0 quando. coincide con la moda. nessuna delle alternative. coincide con la mediana. coincide con la media. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi su l'altra variabile è detto. grafico a barre. istogramma. curva normale. grafico di dispersione. Nelle celle centrali di una tabella di contingenza ci sono. i totali marginali di riga. il totale dei casi. le frequenze congiunte. i totali marginali di colonna. Nell'ultima colonna di una tabella di contingenza ci sono. le frequenze congiunte. il totale dei casi. i totali marginali di riga. i totali marginali di colonna. Nell'ultima riga di una tabella di contingenza ci sono. i totali marginali di colonna. il totale dei casi. i totali marginali di riga. le frequenze congiunte. In un grafico di dispersione. l'asse x riporta i punteggi su una variabile, l'asse Y riporta le frequenze. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi su l'altra variabile. l'asse x riporta i punteggi su una variabile, l'asse y riporta la deviazione standard. l'asse x riporta le frequenze, l'asse y riporta i punteggi sulla variabile. Per rappresentare la relazione tra una variabile nominale e una variabile quantitativa si utilizza. il grafico di dispersione. l'istogramma. la funzione di distribuzione. il grafico a barre. L'istogramma è utilizzato per rappresentare la relazione tra. 2 variabili quantitative. una variabile nominale e una quantitativa. 2 variabili nominali. tutte le alternative. Per rappresentare la relazione tra due variabili nominali si utilizza. il grafico a barre. il grafico di dispersione. la funzione di distribuzione. l'istogramma. Il grafico a barre è utilizzato per rappresentare la relazione tra. una variabile nominale e una quantitativa. 2 variabili nominali. 2 variabili quantitative. tutte le alternative. Per rappresentare la relazione tra due variabili quantitative si utilizza. l'istogramma. la funzione di distribuzione. il grafico a barre. il grafico di dispersione. Il grafico di dispersione è utilizzato per rappresentare la relazione tra. tutte le alternative. 2 variabili quantitative. una variabile nominale e una quantitativa. 2 variabili nominali. Si può rappresentare la relazione tra variabili quando ho. 2 variabili nominali. tutte le alternative. una variabile nominale e una quantitativa. 2 variabili quantitative. Nella rappresentare la relazione tra variabili il tipo di grafico viene scelto in base. alla frequenza delle variabili. alla significatività delle variabili. al numero di casi. al tipo di variabili. Un grafico che riporta sull'asse x riporta i punteggi su una variabile, e sull'asse y riporta i punteggi su l'altra variabile è detto. nessuna delle alternative. entrambe le alternative. grafico di dispersione. scatterplot. Per rappresentare con un grafico a barre la relazione tra due variabili nominali. le barre riportano i punteggi ottenuti. le barre non tengono conto della seconda variabile. nessuna delle alternative. le barre sono suddivise in base alle categorie della seconda variabile. In un istogramma che rappresenta la relazione tra una variabile nominale e una variabile quantitativa. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. l'asse x riporta le categorie della variabile nominale, le barre rappresentano i punteggi sulla variabile quantitativa. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. l'asse x riporta i punteggi su una variabile, l'asse y riporta i punteggi su l'altra variabile. In un grafico a barre. l'asse x riporta le categorie di una variabile, l'asse y riporta la deviazione standard. l'asse y riporta le categorie di una variabile, l'asse x riporta le frequenze. l'asse x riporta i punteggi di una variabile, l'asse y riporta i punteggi dell'altra variabile. l'asse x riporta le categorie di una variabile, l'asse Y riporta le frequenze. Un buon grafico a barre contiene. più categorie di quante ne hanno le variabile. poche categorie. molte categorie vuote. molte categorie. Per rappresentare con un grafico a barre la relazione tra due variabili nominali. le barre sono divise in blocchi che rappresentano le categorie di una variabile. sull'asse x sono rappresentate le categorie di una variabile. sull'asse y sono riportate le frequenze. tutte le alternative. Il valore della covarianza. nessuna delle alternative. non dipende dall'unità di misura delle variabili. entrambe le alternative. non dipende dalla varianza delle variabili. Il valore della covarianza. dipende dalla varianza delle variabili. entrambe le alternative. nessuna delle alternative. dipende dall'unità di misura delle due variabili. Il coefficiente di correlazione r di Pearson può essere utilizzato. con variabili a punteggio. con variabili nominali con più di 2 categorie. con tutti i tipi di variabili. con variabili ordinali. Se all'aumentare della variabile x, la variabile y diminuisce. è presente una correlazione positiva. non è presente una correlazione. non è possibile misurare la correlazione. è presente una correlazione negativa. Se al diminuire della variabile x, la variabile y diminuisce. non è presente una correlazione. è presente una correlazione inversa. è presente una correlazione negativa. è presente una correlazione positiva. Se all'aumentare della variabile x, la variabile y aumenta. non è presente una correlazione. è presente una correlazione positiva. è presente una correlazione inversa. è presente una correlazione negativa. Se tra due variabili è presente una correlazione positiva. il coefficiente r è sempre significativo. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). le due variabili aumentano o diminuiscono insieme. le due variabili assumono entrambe solo valori positivi. La matrice che contiene tutti 1 nella diagonale principale è la matrice. di ANOVA. di regressione. di correlazione. di varianza-covarianza. Quali informazioni sono incluse nel coefficiente di regressione?. entrambe le alternative. la pendenza. nessuna delle alternative. l'adattamento. Se tra due variabili è presente una correlazione positiva. le due variabili assumono entrambe solo valori positivi. le due variabili aumentano o diminuiscono insieme. quando i punteggi di una variabile aumentano, i punteggi dell'altra diminuiscono (e viceversa). il coefficiente r è sempre significativo. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 0. i punti sono dispersi in modo casuale. i punti assumono forma a campana. i punti sono vicini alla retta. non è possibile individuare la retta. In un grafico di dispersione, se il valore del coefficiente di correlazione si avvicina a 1. i punti assumono forma a campana. i punti sono dispersi in modo casuale. i punti sono vicini alla retta. non è possibile individuare la retta. Il coefficiente di correlazione. più si avvicina a 0 e meno è forte la relazione. nessuna delle alternative. entrambe le alternative. più si avvicina a 1 e più è forte la relazione. Il coefficiente di correlazione. entrambe le alternative. più si avvicina a 1 e meno forte è la relazione. nessuna delle alternative. più si avvicina a 0 e più forte è la relazione. In caso di assenza di relazione lineare tra due variabili, il coefficiente di correlazione ha valore. 1. -1. 0. 0.05. Il valore numerico del coefficiente di correlazione indica. la direzione della correlazione. la forza della correlazione. la pendenza della retta. la significatività della correlazione. Nella formula per calcolare il coefficiente r di Pearson si utilizza. solo la varianza di y. la media. la covarianza. solo la varianza di x. Misurando la correlazione tra ore di deprivazione di sonno e livello di attenzione, ci si aspetta di ottenere un r. 0.1. -0.1. -0.8. 0.8. La matrice di correlazione. è asimmetrica. contiene tutti 1 nella diagonale principale. è uguale alla matrice di varianza-covarianza. contiene le varianze nella diagonale principale. Una ricerca ha rilevato un r = 0,92 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y aumenta. Al crescere di x, y diminuisce. Al crescere di x, y rimane costante. Al crescere di y, x rimane costante. la matrice di varianza- covarianza. è asimmetrica. contiene le varianze nella diagonale principale. è uguale alla matrice di varianza-covarianza. contiene tutti 1 nella diagonale principale. La relazione tra due variabili può essere rappresentata con. un istogramma. grafico di dispersione. un grafico a barre. un grafico a torta. Un grafico di dispersione è adattato a rappresentare. la curva di dispersione di una variabile. la relazione tra due variabili. le frequenze percentuali di due variabili. la frequenza di due variabili. Il segno del coefficiente di correlazione indica. la forza della correlazione. la significatività della correlazione. la direzione della correlazione. l'intensità della correlazione. Una ricerca ha rilevato un r = -0,84 tra la variabile x e la variabile y. Ciò significa che. Al crescere di x, y aumenta. Al crescere di x, y rimane costante. Al crescere di x, y diminuisce. Al crescere di y, x rimane costante. Una ricerca ha rilevato un r = -0,87 tra la variabile x e la variabile y. Ciò significa che. c'è una forte correlazione positiva tra le due variabili. c'è una forte correlazione negativa tra le due variabili. c'è una correlazione negativa debole tra le due variabili. c'è una correlazione positiva debole tra le due variabili. Il coefficiente di correlazione può avere. solo segno negativo. solo segno positivo. nessuna delle alternative. segno positivo e segno negativo. Misurando la correlazione tra tempo passato a correre e calorie bruciate, ci si aspetta di ottenere un r di. 0.1. -0.1. 0.9. -0.9. Il coefficiente che si basa sul calcolo dei ranghi è. alfa di Cronbach. d di Cohen. r di Pearson. Rho di Spearman. Per sapere esattamente quanta è la varianza condivisa tra 2 variabili si calcola. l'ANOVA. il coefficiente di determinazione. la regressione. il coefficiente di correlazione. I coefficienti di correlazione sono utilizzati con i test psicologici per misurare. nessuna delle alternative. l'attendibilità. la validità. entrambe le alternative. Il coefficiente di determinazione indica. la dipendenza di una variabile dall'altra. la correlazione tra due variabili. quanta varianza è condivisa da due variabili. l'affidabilità di una variabile. Il coefficiente di determinazione si calcola. 1- il coefficiente di correlazione. elevando al quadrato il coefficiente di correlazione. con la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione diviso (n-1). Il coefficiente di determinazione. può essere sia negativo che positivo. può essere solo positivo. può essere maggiore di 1. può essere solo negativo. Un coefficiente di determinazione di 1 indica che. le variabili condividono lo 0,1% di varianza. le variabili non sono correlate. le variabili condividono il 100% di varianza. le variabili condividono l'1% di varianza. La presenza di una correlazione tra due variabili. nessuna delle alternative. chiarisce quale variabile è la causa e quale l'effetto. indica quale variabile influenza l'altra. prova la causalità della relazione. Il coefficiente è utilizzato quando. entrambe le alternative. i punteggi sono di tipo ordinale. nessuna delle alternative. la distribuzione dei punteggi è marcatamente asimmetrica. La presenza di una correlazione tra due variabili. non prova la causalità della relazione. non indica quale variabile influenza l'altra. non chiarisce quale variabile è la causa e quale l'effetto. tutte le alternative. Il coefficiente è utilizzato quando. entrambe le alternative. nessuna delle alternative. i punteggi sono numerici. la distribuzione dei punteggi è normale. Una popolazione statistica può essere. totalmente reperibile. nessuna delle alternative. entrambe le alternative. infinita. In una popolazione statistica infinita. non è mai utilizzata in ambito psicologico. è possibile elencare tutti i punteggi. non è possibile ottenere la totalità dei punteggi. è possibile ottenere la totalità dei punteggi. Il processo sistematico che seleziona i punteggi in modo che ogni punteggio della popolazione abbia la stessa possibilità di essere scelto è. la randomizzazione. la coerenza interna. l'arbitrarietà. la potenza statistica. Il campionamento in cui ogni punteggio ha la stessa probabilità di essere selezionato è quello. tutte le alternative. randomizzato. probabilistico. casuale. La deviazione standard delle medie dei campioni è. l'errore sistematico. la varianza. l'errore standard. l'intervallo di confidenza. Più è grande il campione. più è probabile che la sua media sia diversa da quella della popolazione. più è probabile che la sua media si avvicini a quella della popolazione. più è probabile che ci sia incertezza nella stima della media della popolazione. più è improbabile che la sua media si avvicini a quella della popolazione. Il campione randomizzato. non è affetto da manipolazione. è arbitrariamente selezionato dal ricercatore. non produce stime affidabili. è affetto da manipolazione. Il campionamento probabilistico può essere. casuale semplice e per quote. stratificato e a scelta ragionata. per clusters e per quote. stratificato e per clusters. Si definisce generalizzabilità il grado in cui i risultati di uno studio. eseguito su un campione possono essere estesi a tutti gli altri campioni. eseguito su un campione possono essere estesi alla popolazione. eseguito oggi può essere esteso all'anno prossimo. eseguito sulla popolazione possono essere estesi al campione. Un campione si dice rappresentativo quando. riflette in modo accurato le caratteristiche della popolazione. non riflette in modo accurato le caratteristiche della popolazione. non riflette in modo accurato l'idea di campione che ha il ricercatore. riflette in modo accurato l'idea di campione che ha il ricercatore. Il campionamento in cui ogni unità di analisi ha una probabilità̀ individuabile e non uguale a zero di entrare a far parte del campione è detto. probabilistico. probabile. arbitrario. non probabilistico. Il campionamento probabilistico può essere. per clusters. stratificato. tutte le alternative. casuale semplice. Il campionamento stratificato è un tipo di campionamento. per quote. probabilistico. non probabilistico. a scelta ragionata. Il campionamento per cluster è un tipo di campionamento. probabilistico. a scelta ragionata. non probabilistico. per quote. Il campionamento probabilistico può essere. per clusters e per quote. casuale semplice e stratificato. casuale semplice e per quote. stratificato e a scelta ragionata. Il campionamento NON probabilistico può essere. stratificato e per clusters. per quote e a scelta ragionata. stratificato e casuale semplice. casuale semplice e stratificato. Il campionamento per quote e a scelta ragionata sono tipi di campionamento. probabile. non probabilistico. randomizzato. probabilistico. Il primo assioma del calcolo probabilistico stabilisce che la probabilità di un evento impossibile è. uguale a 1. imprevedibile. uguale a 0. minore di 1. Il valore 0,1 espresso in percentuale diventa. 0.01%. 10%. 0.10%. 1%. La percentuale 45% a quanto corrisponde espressa in decimali?. 0.045. 4.5. 0.45. 0.0045. Il secondo assioma del calcolo probabilistico stabilisce che la probabilità di un evento certo è. imprevedibile. uguale a 1. uguale a 0. minore di 1. Significatività statistica significa che i risultati. non sono dovuti a fattori casuali. sono dovuti a fattori casuali. sono accurati. non sono accurati. "non esiste alcuna relazione tra dimensione del cervello e intelligenza" è un esempio di. ipotesi alternata. ipotesi nulla. ipotesi falsa. ipotesi alternativa. "esiste una relazione tra il tipo di diploma conseguito e il reddito" è un esempio di. ipotesi vera. ipotesi nulla. ipotesi falsa. ipotesi alternativa. La popolazione definita dall'ipotesi nulla è quella in cui. la correlazione tra le due variabili è 0,5. la correlazione tra le due variabili è 1. la correlazione tra le due variabili è 0. la correlazione tra le due variabili non si può misurare. Quando si rifiuta l'ipotesi nulla. non si può decidere nulla sull'ipotesi alternativa. si rifiuta l'ipotesi alternativa. si accetta l'ipotesi alternativa. l'ipotesi alternativa non è più valida. Quando si accetta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. non si può decidere nulla sull'ipotesi alternativa. si accetta l'ipotesi alternativa. l'ipotesi alternativa è più probabile. Nell'inferenza statistica. non si può incorrere in alcun errore. si può incorrere solo nell'errore di II tipo. si può incorrere nell'errore di I tipo e di II tipo. si può incorrere solo nell'errore di I tipo. Impostando un livello di significatività più restrittivo. riduco il rischio di errore di I tipo. non influisco sul rischio di errore di II tipo. riduco il rischio di errore di II tipo. aumento il rischio di errore di I tipo. L'errore standard è stimato dividendo la deviazione standard. per N elevato al quadrato. per N-1. per la radice quadrata di N. per N. L'errore standard è stimato. dalla media del campione. dalla significatività statistica. dalla probabilità del campione. dalla deviazione standard del campione. L'errore standard è. maggiore in campioni grandi. minore in campioni piccoli. indipendente dalla grandezza del campione. maggiore in campioni piccoli. L'errore standard è. maggiore in campioni grandi. minore in campioni piccoli. indipendente dalla grandezza del campione. minore in campioni grandi. Una ricerca che misura una variabile più volte su uno stesso gruppo di soggetti è detta. nessuna delle alternative. a campioni indipendenti. a misure indipendenti. a misure ripetute. Una ricerca in cui si somministra a un gruppo di soggetti un test sull'umore la mattina e la sera è. a campioni correlati. a campioni non correlati. a campioni indipendenti. nessuna delle alternative. Per valutare i cambiamenti nel corso del tempo in punteggi numerici ottenuti dagli stessi soggetti utilizzerò. il t-test per campioni indipendenti. il t-test per campioni correlati. il coefficiente di correlazione. il test del chi-quadro. Il disegno di ricerca a misure ripetute prevede l'utilizzo. nessuna delle alternative. di un solo gruppo di partecipanti misurati più volte. entrambe le alternative. di almeno 2 gruppi distinti di partecipanti. Stai facendo un t-test appaiato per vedere se una campagna pubblicitaria ha fatto aumentare la propensione a fare attività fisica in 2 comuni. Qual è la variabile indipendente?. nessuna delle alternative è valida. prima e dopo la campagna pubblicitaria. il punteggio di propensione all'attività fisica in entrambi i comuni. il punteggio di propensione all'attività fisica in uno dei due comuni. Si accetta l'ipotesi alternativa se il valore del t calcolato. nessuna delle alternative è valida. è maggiore del valore del t critico. è inferiore al valore del t critico. non è statisticamente significativo. Si rifiuta l'ipotesi alternativa se il valore del t calcolato. è maggiore del valore del t critico. è inferiore al valore del t critico. è statisticamente significativo. nessuna delle alternative è valida. Si rifiuta l'ipotesi nulla se il valore del t calcolato. è maggiore del valore del t critico. non è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore del t critico. Si accetta l'ipotesi nulla se il valore del t calcolato. è inferiore al valore del t critico. è statisticamente significativo. è maggiore del valore del t critico. nessuna delle alternative è valida. Se il valore del t calcolato è maggiore del valore del t critico. si accetta l'ipotesi nulla. si rifiuta l'ipotesi alternativa. si rifiuta l'ipotesi nulla. l'ipotesi nulla non è falsificata. Se il valore del t calcolato è inferiore al valore del t critico. si rifiuta l'ipotesi nulla. si accetta l'ipotesi alternativa. è falsificata l'ipotesi nulla. si accetta l'ipotesi nulla. Nel t-test per campioni correlati, i gradi di libertà si calcolano con. N+1. (N1-1)+(N2-1). N-1. radice quadrata di N. La distribuzione t. varia a seconda dei gradi di libertà. è più appiattita della distribuzione normale se i campioni sono piccoli. tutte le alternative. si approssima alla normale in campioni molto ampi. In un disegno di ricerca a misure ripetute utilizzerò. entrambe le alternative sono valide. il t-test per campioni correlati. nessuna delle alternative è valida. il t-test per campioni indipendenti. In un disegno a misure ripetute, i diversi momenti temporali sono. la variabile interveniente. la variabile indipendente. la variabile dipendente. possono sia la variabile dipendente che la variabile indipendente. In un disegno a misure ripetute, i punteggi rilevati sono. la variabile indipendente. la variabile dipendente. la variabile interveniente. possono sia la variabile dipendente che la variabile indipendente. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile indipendente?. i punteggi della scuola B. scuola A e scuola B. i punteggi di entrambe le scuole. i punteggi della scuola A. Per valutare le differenze sui punteggi numerici di due gruppi di soggetti si utilizza. il t-test per campioni indipendenti. il coefficiente di correlazione. il t-test per campioni correlati. il test del chi-quadro. Un disegno di ricerca per campioni indipendenti prevede l'utilizzo. di un unico gruppo di soggetti misurato più volte nel tempo. di un unico gruppo di soggetti che non si conoscano tra loro. di almeno due gruppi distinti di soggetti. nessuna delle alternative è valida. Una ricerca che prevede un gruppo sperimentale e un gruppo di controllo è. a campioni correlati. tutte le alternative possono essere valide. a campioni indipendenti. a misure ripetute. Una ricerca in cui si confrontano le abilità di memoria di studenti dei prima elementare con quelle di studenti di quinta elementari è. a misure ripetute. a campioni indipendenti. tutte le alternative possono essere valide. a campioni correlati. Una ricerca in cui si confrontano i livelli di depressione di pazienti che assumono un farmaco con quelli di pazienti che assumono un placebo è. a campioni correlati. tutte le alternative possono essere valide. a misure ripetute. a campioni indipendenti. La tecnica statistica che esamina se due gruppi di punteggi, provenienti da persone diverse, hanno medie significativamente differenti è. la regressione. il t-test per campioni correlati. il t-test per campioni indipendenti. la correlazione. Un test t per campioni indipendenti è appropriato per confrontare le medie misurate su: bambini la mattina e la sera. maschi e femmine. bambini prima e dopo il pranzo. ragazzi prima e dopo una lezione. I gradi di libertà nel t-test per campioni indipendenti si calcolano con. N-1. N+2. radice quadrata di N. N-2. Il t-test può essere utilizzato se i dati sono. punteggi numerici. ordinali. tutte le alternative. nominali. Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile dipendente?. entrambe le alternative sono valide. I punteggi della scuola A e della scuola B. nessuna delle alternative è valida. scuola A e scuola B. Nel test del chi-quadro i gradi di libertà si calcolano con. (n di colonne-1) x (n righe -1). radice quadrata di N. N-1. N-2. In una ricerca in cui donne con figli e donne senza figli sono confrontate sulla base dello status lavorativo (disoccupata, casalinga, lavoratrice) si utilizzerà. il t-test per campioni correlati. il t-test per campioni indipendenti. l'ANOVA. il test del chi-quadro. Affinché il test del chi-quadro sia affidabile la numerosità all'interno di ogni singola cella deve essere. almeno 2. qualsiasi. almeno 5. almeno 10. Per verificare se le frequenze dei casi in gruppi diversi differiscono tra loro viene utilizzato. il t-test per campioni indipendenti. il test del chi-quadro. il t-test per campioni correlati. l'ANOVA. In un test del chi-quadro se il valore calcolato è superiore al valore critico. si falsifica l'ipotesi alternativa. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa. In un test del chi-quadro se il valore calcolato è inferiore al valore critico. si falsifica l'ipotesi nulla. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa. L'analisi che utilizza le tabella di contingenza è. l'ANOVA. il test del chi-quadro. il t-test per campioni correlati. il t-test per campioni indipendenti. L'analisi che confronta le frequenze osservate con le frequenze attese è. il test del chi-quadro. l'ANOVA. il t-test per campioni correlati. il t-test per campioni indipendenti. Per poter utilizzare il test del chi-quadro. nessuna delle alternative. ci devono essere almeno 2 categorie per ciascuna variabile. i dati devono essere nominali. entrambe le alternative. L'analisi che si può utilizzare con dati nominali (categorie) è. tutte le alternative. il t-test. il chi-quadro. l'ANOVA. In alternativa al test del chi-quadro si può utilizzare. la correlazione di Pearson. l'ANOVA. il test della probabilità esatta di Fisher. il t-test per campioni correlati. Il test della probabilità esatta di Fisher può essere utilizzato come alternativa. a r di Pearson. all'alfa di Cronbach. al Rho di Spearman. al chi-quadro. La variabile X è correlata con la variabile Y è un esempio di ipotesi. direzionale. non direzionale. nulla. tutte le alternative possono essere valide. La variabile X è correlata positivamente con la variabile Y è un esempio di ipotesi. nulla. direzionale. tutte le alternative sono valide. non direzionale. I test statistici possono essere. solo a due code. a una coda e a due code. solo a una coda. i test statistici non prevedono code. Il test a una coda. è sempre preferibile rispetto al test a due code. permette di ottenere risultati significativi solo se il campione è molto grande. è più conservativo rispetto al test a due code. permette di ottenere risultati significativi con un campione più piccolo. Con le ipotesi che stabiliscono la direzione della relazione tra le variabili. si utilizzano test a una coda o a due code. non si possono utilizzare test statistici. si utilizzano test a due code. si utilizzano test a una coda. Con le ipotesi che NON stabiliscono la direzione della relazione tra le variabili. non si possono utilizzare test statistici. si utilizzano test a una coda o a due code. si utilizzano test a due code. si utilizzano test a una coda. Le code alle quali ci si riferisce quando si parla dei test statistici a una o due code fanno riferimento a. distribuzione campionaria. nessuna delle alternative. la parte finale del test somministrato. linea di regressione. Se i punteggi si distribuiscono approssimando la distribuzione normale. è consigliabile utilizzare test parametrici. è consigliabile utilizzare test NON parametrici. qualsiasi test fornirà un risultato non attendibile. è consigliabile non effettuare analisi statistiche. I test NON parametrici. possono essere usati se le assunzioni dei test parametrici sono violate. tutte le alternative. sono basati sulla distribuzione normale. nessuna delle alternative. Se i punteggi si distribuiscono in modo molto asimmetrico, non approssimando affatto la distribuzione normale. non si possono utilizzare i test non parametrici. non si possono eseguire analisi statistiche. si possono utilizzare solo i test parametrici. è consigliabile utilizzare i test non parametrici. I test NON parametrici. spesso sono basati sui ranghi. sono sempre preferibili ai test parametrici. prevedono il rispetto di numerose assunzioni sulla distribuzione della popolazione. presuppongono una distribuzione normale. Il test di Wilcoxon è l'equivalente non parametrico di. ANOVA a una via. t-test per campioni indipendenti. t-test per dati appaiati. ANOVA per misure ripetute. Il test NON parametrico equivalente al t-test per dati appaiati è. il test di Wilcoxon. il test di Friedman. il test U di Mann Whitney. il test di Kruskal-Wallis. Il test U di Mann Whitney è l'equivalente non parametrico di. t-test per dati appaiati. ANOVA a una via. ANOVA per misure ripetute. t-test per campioni indipendenti. Il test NON parametrico equivalente al t-test per campioni indipendenti è. il test di Kruskal-Wallis. il test di Friedman. il test U di Mann Whitney. il test di Wilcoxon. I test NON parametrici. tutte le alternative. non sono basati sulla distribuzione normale. non possono essere usati se le assunzioni dei test parametrici sono violate. nessuna delle alternative. Nel test del rapporto tra varianze F i gradi di libertà sono calcolati. radice quadrata di N del gruppo. N del gruppo -2. N del gruppo -1. N del gruppo +1. Prima di un t-test, per verificare che le varianze dei due campioni siano realmente simili. si calcola la radice quadrata delle varianze. si calcola r di Pearson. si calcola il chi-quadro. si calcola il parametro F. Il test per il rapporto tra varianze F. può essere a una coda o a due code. nessuna delle alternative è valida. è un test a una coda. è un test a due code. Il test che prevede la divisione della varianza maggiore per la varianza minore è. U di Mann-Whitney. t-test. chi-quadro. test F. Il rapporto F viene calcolato dividendo. la media più alta per la media più bassa. la media più bassa per la media più alta. la varianza maggiore per la varianza minore. la varianza minore per la varianza maggiore. Il test per il rapporto tra varianze F. è un test a una coda. tutte le alternative. non può essere inferiore a 1. prevede il confronto con la coda destra della distribuzione. Nel test del rapporto tra varianze. più grande F, minore la differenza tra le due varianze. più grande è F, maggiore la differenza tra le due varianze. nessuna delle alternative. più piccolo F, maggiore è la differenza tra le varianze. Il test F per la valutazione del rapporto tra varianze ha come obiettivo valutare. la correlazione tra le due varianze. quale campione ha la media maggiore. se i due campioni sono attendibili. se i due campioni provengono dalla stessa popolazione. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile dipendente. nessuna delle alternative. numero di libri acquistati in un anno. le 4 regioni. le medie del numero di libri acquistati in un anno. Quali dei seguenti test statistici implica il confronto delle varianze di 2 o più campioni?. analisi della varianza. chi-quadro. analisi della variazione. t-test. Se il valore del parametro F calcolato nell'ANOVA è inferiore al valore di F critico. è falsificata l'ipotesi nulla. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla. si accetta l'ipotesi alternativa. Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile indipendente. le 4 regioni. numero di libri acquistati in un anno. nessuna delle alternative. le medie del numero di libri acquistati in un anno. L'analisi che determina se la varianza tra i gruppi è significativamente diversa rispetto a quella derivante dall'oscillazione casuale dei dati è. il chi-quadro. l'ANOVA a una via. l'ANOVA per misure ripetute. la regressione. In psicologia si assume che il punteggio osservato X sia costituito da. solo punteggio vero. punteggio vero + errore. punteggio vero diviso errore. punteggio vero - errore. In una ANOVA a una via. i gruppi devono essere almeno 4. in tutti i gruppi deve esserci lo stesso numero di soggetti. i gruppi sono composti dalle stesse persone. i gruppi sono indipendenti tra loro. In una ANOVA a una via, l'oscillazione casuale nei punteggi del campione è stimata con. la varianza totale. la varianza tra i gruppi diviso la varianza entro il gruppo. la varianza tra i gruppi. la varianza entro il gruppo. In una ANOVA a una via, la varianza entro il gruppo. rappresenta l'effetto del trattamento. non può essere stimata. non è mai presente. rappresenta l'oscillazione casuale nei punteggi del campione. In una ANOVA a una via si stima. solo la varianza totale. solo la varianza tra i gruppi. la varianza tra i gruppi e entro il gruppo. solo la varianza entro i gruppi. In una ANOVA a una via. i punteggi rappresentano la variabile dipendente e i gruppi rappresentano la variabile indipendente. i punteggi rappresentano la variabile indipendente e i gruppi rappresentano la variabile dipendente. i punteggi rappresentano sia la variabile dipendente che la variabile indipendente. i gruppi rappresentano sia la variabile dipendente che la variabile indipendente. In una ANOVA a una via i gradi di libertà per la varianza entro i gruppi (o errore) si calcolano. N + numero dei gruppi. N dei gruppi -1. N-1. N-numero di gruppi. L'ANOVA può essere utilizzata se i dati sono. tutte le alternative. punteggi numerici. nominali. ordinali. Se il valore del parametro F calcolato nell'ANOVA è maggiore del valore di F critico. si rifiuta l'ipotesi alternativa. l'ipotesi nulla non è falsificata. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla. Nell'ANOVA si accetta l'ipotesi nulla se il valore di F calcolato. è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico. Nell'ANOVA si rifiuta l'ipotesi nulla se il valore di F calcolato. nessuna delle alternative è valida. è inferiore al valore di F critico. non è statisticamente significativo. è maggiore del valore di F critico. Nell'ANOVA si rifiuta l'ipotesi alternativa se il valore di F calcolato. è maggiore del valore di F critico. è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. Nell'ANOVA si accetta l'ipotesi alternativa se il valore di F calcolato. non è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico. Nell'ANOVA a una via la tabella riassuntiva riporta. solo i gradi di libertà. tutte le alternative. solo il parametro F. solo le sorgenti di variazione. In una tabella riassuntiva dell'ANOVA a una via sono indicate le sorgenti di variazione. fra i gruppi, entro i gruppi e totale. fra condizioni, fra i soggetti, errore. entro i gruppi e fra i soggetti. fra i soggetti e totale. Il t-test è un caso particolare di. ANOVA multifattoriale. ANOVA a una via. nessuna delle alternative. chi-quadro. In una ANOVA, l'espressione "livelli di trattamento" si riferisce. ai gradi di libertà. al numero di condizioni della variabile indipendente. ai passaggi per condurre l'analisi. al numero di condizioni della variabile dipendente. In una ANOVA a una via è necessario effettuare i confronti multipli s. la variabile indipendente ha più di 2 condizioni. la variabile indipendente ha 2 condizioni. la variabile dipendente ha più di 2 condizioni. la variabile dipendente ha 2 condizioni. In una ANOVA a una via, se la variabile indipendente ha più di 2 condizioni. effettuerò i confronti multipli se F non è significativo. non potrò effettuare mai i confronti multipli. effettuerò i confronti multipli se F è significativo. effettuerò 3 ANOVA separate. In una ANOVA a una via i gradi di libertà totali corrispondono. alla somma dei gradi di libertà entro i gruppi e fra i gruppi. ai gradi di libertà tra i gruppi diviso i gradi di libertà entro i gruppi. ai gradi di libertà tra i gruppi per i gradi di libertà entro i gruppi. alla differenza tra i gradi di libertà tra i gruppi e entro i gruppi. L'analisi in cui ogni soggetto fa da 'controllo' di se stesso è l'ANOVA. tutte le alternative. per misure ripetute. multifattoriale. a una via. L'analisi che permette di valutare la varianza dovuta alle differenze individuali è. chi-quadro. regressione. ANOVA a una via. ANOVA per misure ripetute. In una tabella riassuntiva dell'ANOVA per misure ripetute sono indicate le sorgenti di variazione. fra i gruppi e errore. fra condizioni, fra soggetti, errore. fra i soggetti e entro i soggetti. fra i gruppi e entro i gruppi. Una ricerca confronta le abilità di memoria utilizzando 3 strategie diverse di memorizzazione. La variabile indipendente è. le medie dei gruppi. l'abilità di memoria. le 3 strategie di memorizzazione. tutte le alternative. Nell'ANOVA per misure ripetute i soggetti. appartengono a gruppi distinti. nessuna delle alternative. sono valutati più volte. entrambe le alternative. Nell'ANOVA multifattoriale l'effetto derivante dalla combinazione di variabili indipendenti è detto. effetto dell'interazione. effetto della correlazione. effetto significativo. effetto principale. In una ANOVA per misure ripetute si possono studiare. effetti della correlazione e principali. solo effetti dell'interazione e dell'indipendenza. effetti principali e dell'interazione. solo effetti principali e secondari. In una ANOVA l'interazione è. l'effetto combinato delle due variabili dipendenti. l'effetto combinato delle due variabili indipendenti. impossibile da calcolare. sempre significativa. Effetti principali e effetti dell'interazione si possono studiare con. ANOVA per misure ripetute. ANOVA multifattoriale. ANOVA a una via. tutte le alternative. Con ANOVA 2 x 3 si intende che. ci sono 2 variabili indipendenti e 3 dipendenti. ci sono 2 variabili dipendenti e 3 variabili indipendenti. la prima variabile indipendente ha 2 livelli e la seconda ne ha 3. la prima variabile dipendente ha 2 livelli e la seconda ne ha 3. Nell'ANOVA, nel grafico che rappresenta una interazione significativa le linee. passano il più vicino possibile alla nuvola di punti. sono parallele. non possono essere rappresentate. non sono parallele. Nell'ANOVA, nel grafico che rappresenta una interazione NON significativa le linee. sono parallele. non sono parallele. non possono essere rappresentate. passano il più vicino possibile alla nuvola di punti. Il grafico che viene utilizzato per rappresentare l'effetto dell'interazione nell'ANOVA è. un diagramma di dispersione. un grafico con linee. un grafico a torta. un grafico a barre. Nell'ANOVA multifattoriale l'effetto di ciascuna variabile indipendente è detto. effetto dell'interazione. effetto principale. effetto della correlazione. effetto significativo. L'ANOVA multifattoriale si distingue dall'ANOVA a una via perché. entrambe le alternative. considera 2 o più variabili dipendenti. considera 2 o più variabili indipendenti. nessuna delle alternative. L'analisi che include lo studio dell'interazione è. l'ANOVA multifattoriale. la correlazione. l'ANOVA a una via. il chi-quadro. Nell'ANOVA multifattoriale è utilizzata quando si hanno. due variabili indipendenti e una variabile dipendente. tutte le alternative possono essere valide. due variabili dipendenti e una variabile indipendente. due variabili indipendenti e due variabili dipendenti. L'analisi che permette di misurare l'effetto combinato di due variabili indipendenti è. la correlazione. l'ANOVA a una via. l'ANOVA multifattoriale. il chi-quadro. Il test di Dunett e il test di Scheffé sono tipi di test per. per misurare l'affidabilità. per testare la correlazione. per effettuare la regressione. effettuare i confronti multipli. I confronti multipli pianificati. sono decisi dopo aver rilevato una interazione significativa. sono decisi prima di iniziare la raccolta dati. tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA. I confronti multipli post-hoc. tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA. sono decisi prima di aver condotto l'ANOVA. sono decisi prima di iniziare la raccolta dati. I confronti multipli effettuati nell'ANOVA possono essere. nessuna delle alternative. entrambe le alternative. post-hoc. pianificati. Con i confronti multipli effettuati dopo l'ANOVA si vuole stabilire. tutte le alternative. se c'è un'interazione significativa. quali sono le specifiche medie che differiscono significativamente. se c'è un effetto principale significativo. In una ANOVA non è possibile stabilire quali fra le medie considerate differiscono dalle altre quando. le variabili indipendenti presentano 2 livelli di trattamento. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento. In una ANOVA non è possibile stabilire direttamente quali fra le medie considerate differiscono dalle altre quando. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento. le variabili dipendenti presentano 2 livelli di trattamento. Nel grafico dell'interazione in una ANOVA multifattoriale, le linee parallele suggeriscono che. l'interazione non è significativa. l'interazione è significativa. non si possono interpretare gli effetti principali. non si può interpretare l'interazione. La tecnica statistica che può essere utilizzata per stimare il valore di Y a partire da X è. l'ANOVA. il chi-quadro. la regressione. il t-test. La retta di regressione. passa il meno vicino possibile ai punti del grafico di dispersione. passa il più vicino possibile ai punti nel grafico di dispersione. si traccia unendo tutti i punti nel grafico di dispersione. tutte le alternative possono essere valide. Quando si disegna una retta di regressione, nel grafico si rappresenta. la variabile predittore sull'asse orizzontale e la variabile criterio sull'asse verticale. tutte le alternative possono essere valide. la variabile x sull'asse verticale e la y sull'asse orizzontale. la variabile predittore sull'asse verticale e la variabile criterio sull'asse orizzontale. Il grafico di dispersione è utilizzato. nella correlazione e nella regressione. solo nella regressione. solo nella correlazione. nessuna delle alternative. La pendenza e l'intercetta sono stimate per descrivere. la potenza statistica. la distribuzione binomiale. la retta di regressione. la curva normale. Per descrivere la retta di regressione è necessario conoscere. varianza e media. asimmetria e curtosi. varianza e gradi di libertà. pendenza e intercetta. La regressione è una tecnica statistica che può essere utilizzata per. verificare l'effetto di un trattamento. fare delle previsioni. confrontare le frequenze di 2 gruppi. sapere se due medie sono significativamente diverse. Nell’equazione di regressione y= a + bx, la variabile x rappresenta. variabile predittore. pendenza. intercetta. variabile criterio. In una regressione la variabile Y è considerata. nessuna delle alternative. entrambe le alternative. la variabile dipendente. la variabile criterio. In una regressione la variabile X è considerata. la variabile dipendente. entrambe le alternative. nessuna delle alternative. la variabile criterio. In una regressione la variabile Y è considerata. entrambe le alternative. il predittore. la variabile indipendente. nessuna delle alternative. Nell’equazione di regressione y= a + bx, la b rappresenta. variabile predittore. intercetta. variabile criterio. pendenza. La retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione è. la retta di regressione. la retta di correlazione. la retta dell'interazione nell'ANOVA. la curva normale. La retta di regressione. è parallela alla curva normale. è la retta che rappresenta l'interazione in una ANOVA. coincide con la curva normale. è la retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione. La retta di regressione viene stimata attraverso il metodo. delle somme delle medie. dei massimi quadrati. delle massime distanze. dei minimi quadrati. Il metodo dei minimi quadrati è utilizzato. nel campionamento. nel chi-quadro. nell'ANOVA. nella regressione. In una regressione la variabile X è considerata. nessuna delle alternative. il predittore. la variabile indipendente. entrambe le alternative. In una regressione l'intercetta è definita come. l'errore di misura. il punto in cui la retta interseca l'asse orizzontale. la pendenza della retta. il punto in cui la retta interseca l'asse verticale. Nell’equazione di regressione y= a + bx, la a rappresenta. variabile criterio. pendenza. variabile predittore. intercetta. Il punto in cui la retta di regressione interseca l'asse verticale è. il criterio. l'intercetta. la pendenza. l'errore di misura. Se l'equazione di regressione è Y = -3 + 7X, la retta intersecherà l'asse X a. 0. 7. 3. -3. Se l'equazione di regressione è Y = 5 + 4X, all'aumentare di 1 unità di X la Y. aumenterà di 5. diminuirà di 4. aumenterà di 4. aumenterà di 0. Se l'equazione di regressione è Y = 5 + 4X, la retta intersecherà l'asse X a. 5. 4. 0. -5. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di laurea è. la pendenza. la variabile predittore. la variabile criterio. l'intercetta. Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di maturità è. la variabile predittore. la variabile criterio. la pendenza. l'intercetta. Se l'equazione di regressione è Y = 6 - 7X, all'aumentare di 1 unità di X la Y. aumenterà di 6. aumenterà di 0. diminuirà di 7. aumenterà di 7. Nell’equazione di regressione y= a + bx, la variabile y rappresenta. pendenza. variabile predittore. intercetta. variabile criterio. Per sapere quanto aumenta la variabile criterio all'aumentare di 1 unità della variabile predittore si utilizza. la varianza. la media. la pendenza. l'intercetta. Il coefficiente di regressione è. l'intercetta. la pendenza della retta. il criterio. il predittore. La correlazione e la regressione. sono simili ma hanno scopi diversi. sono due modi di chiamare la stessa tecnica. sono simili e hanno lo stesso scopo. non hanno alcuna similarità. Nella retta di regressione la pendenza indica. nessuna delle alternative. entrambe le alternative. quanto aumenta la Y all'aumentare di 1 unità della X. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. Nella regressione, l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale è. l'intercetta. il criterio. la pendenza. il predittore. La pendenza della retta di regressione è. l'intercetta. l'errore di misura. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. il criterio. Il coefficiente di determinazione misura. la correlazione tra due variabili. l'affidabilità di una variabile. la varianza di una variabile. la proporzione di varianza totale condivisa da due variabili. La proporzione di varianza totale condivisa da due variabili è misurata con. il coefficiente di determinazione. il coefficiente di affidabilità. il coefficiente di correlazione. il coefficiente d di Cohen. Il coefficiente di determinazione è calcolato con. la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione elevato al quadrato. il coefficiente di correlazione diviso N. il coefficiente di correlazione diviso la deviazione standard. Se il campione è grande, una relazione tra variabili. solo se grande può essere statisticamente significativa. solo se grande non può essere statisticamente significativa. anche se piccola non può essere statisticamente significativa. anche se piccola può essere statisticamente significativa. Per sapere se è ragionevole generalizzare alla popolazione i risultati ottenuti sul campione si utilizza. la dimensione dell'effetto. l'affidabilità. la dispersione. la significatività statistica. Per misurare la dimensione degli effetti, il risultato del t-test si può trasformare in. deviazione standard. coefficiente di correlazione. alfa di Cronbach. media aritmetica. La dimensione dell'effetto può essere misura con. solo con la d di Cohen. il coefficiente di correlazione e la d di Cohen. nessuna delle alternative. solo con il coefficiente di correlazione. La meta-analisi. analizza gli studi già pubblicati su un tema. è uno studio di studi. entrambe le alternative. nessuna delle alternative. Valutare la forza della relazione tra variabili emersa in molti studi è l'obiettivo. della regressione. dell'analisi della varianza. dei test non parametrici. della meta-analisi. Valutare l'influenza di varie caratteristiche degli studi già svolti (es. campione, metodo) sulla forza della relazione tra variabili è l'obiettivo. dei test non parametrici. della meta-analisi. della regressione. dell'analisi della varianza. La tecnica che permette di analizzare il modello dei risultati di una serie di studi pubblicati e non pubblicati su una ipotesi di ricerca è. la meta-analisi. la regressione. la significatività statistica. l'inferenza statistica. Gli studi selezionati per la meta-analisi possono essere. solo a sfavore dell'ipotesi di ricerca. a favore o a sfavore dell'ipotesi di ricerca. solo a favore dell'ipotesi di ricerca. non pertinenti all'ipotesi di ricerca. In una meta-analisi è bene includere uno studio. solo se conferma l'ipotesi di ricerca. solo se non è pertinente all'ipotesi di ricerca. solo se contraddice l'ipotesi di ricerca. se conferma o contraddice l'ipotesi di ricerca. In una meta-analisi è bene includere uno studio. entrambe le alternative. nessuna delle alternative. se conferma l'ipotesi di ricerca. se contraddice l'ipotesi di ricerca. In una meta-analisi è bene includere. solo gli studi di autori noti. solo gli studi non pubblicati. solo gli studi pubblicati. sia gli studi pubblicati che quelli non pubblicati. Il concetto centrale nella meta-analisi è. il campionamento. il numero di studi utilizzati. la distribuzione normale. la dimensione dell'effetto. La dimensione dell'effetto. è il concetto centrale nella meta-analisi. tutte le alternative. riguarda quanto è grande l'effetto di una variabile sull'altra. non coincide con la significatività statistica. La dimensione dell'effetto. non è usata nella meta-analisi. può essere calcolata con la d di Cohen. non può essere misurata. corrisponde alla significatività statistica. Nella meta-analisi, l'uso del coefficiente di correlazione è consigliato perché. entrambe le alternative. nessuna delle alternative. può essere calcolato a partire da una varietà di test di significatività. è più flessibile della d di Coehn. In una meta-analisi, si può calcolare la dimensione dell'effetto di uno studio. moltiplicando per N il livello di significatività. calcolando la radice quadrata del livello di significatività. dividendo il livello di significatività per la d di Cohen. trasformando in punti z il livello di significatività. In una meta-analisi, per calcolare la dimensione dell'effetto di ciascuno studio si può usare. la grandezza dell'effetto riportata nello studio. il risultato del t-test. tutte le alternative. il livello di significatività e la dimensione del campione. Le meta-analisi cercano di stimare quali caratteristiche degli studi. entrambe le alternative. sono responsabili di piccole dimensioni dell'effetto. nessuna delle alternative. sono responsabili di grandi dimensioni dell'effetto. Affinché possa essere utilizzato in una meta-analisi uno studio deve riportare almeno. il livello di significatività e la dimensione del campione. il genere e l'età dei partecipanti. solo la dimensione del campione. solo il livello di significatività. In una meta-analisi la dimensione dell'effetto può essere valutata. con l'alfa di Cronbach. nessuna delle alternative. entrambe le alternative. con la deviazione standard. In una meta-analisi la dimensione dell'effetto può essere valutata. con il coefficiente di correlazione. con la d di Cohen. entrambe le alternative. nessuna delle alternative. La coerenza interna di una scala psicologica può essere misurata con. tutte le alternative. l'alfa di Cronbach. la correlazione tra singolo item e punteggio totale. il metodo split-half. Verificare se le componenti di una scala psicologica stanno misurando la stessa cosa è l'obiettivo. dell'analisi di affidabilità. dell'analisi della potenza statistica. dell'analisi della varianza. della meta-analisi. L'indice kappa è utilizzato per misurare. la coerenza interna. la varianza delle misure. la difficoltà delle misure. la concordanza tra valutatori. Per misurare la concordanza tra valutatori si utilizza. l'indice kappa. l'affidabilità split-half. l'alfa di Cronbach. la correlazione item totale. Un indice della concordanza tra valutatori dovrebbe. essere sensibile al fatto che i valutatori non variano i loro giudizi. fornire un'indicazione della sovrapposizione tra le valutazioni. nessuna delle alternative. entrambe le alternative. La media di tutte le possibili affidabilità split-half che potrebbero essere calcolate per una scala è. l'alfa di Cronbach. il coefficiente eta. l'affidabilità split-half. la correlazione item totale. L'affidabilità che correla il punteggio totale su metà item con il punteggio totale sull'altra metà degli item è detta. coefficiente eta. coefficiente di determinazione. split-half. correlazione item totale. Se una scala di misura è dotata di coerenza interna ciascun item. dovrebbe essere correlato con un solo altro item. dovrebbe essere correlato con gli altri item della misura. non dovrebbe essere correlato con il punteggio totale. non dovrebbe essere correlato con gli altri item della misura. Il risultato dell'affidabilità misurata con l'alfa di Cronbach. dipende dal modo in cui abbiamo suddiviso gli item. dipende dalla significatività statistica. non dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. Il risultato dell'affidabilità split-half. non prevede una suddivisione degli item. dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. non dipende dal modo in cui abbiamo suddiviso gli item. Il metodo split-half viene utilizzato per misurare. la validità. l'affidabilità. la significatività. la potenza statistica. Il coefficiente alfa di Cronbach misura. la significatività. la potenza statistica. l'affidabilità. la validità. La correlazione tra singolo item e punteggio totale su una scala psicologica è un modo per misurare. la validità. la potenza statistica. l'affidabilità. la significatività. Per misurare la dimensione degli effetti in una ANOVA si utilizza. l'alfa di Cronbach. la varianza. la devianza. il coefficiente eta. L'affidabilità come coerenza interna riguarda. quanto è stabile nel tempo una scala psicologica nel tempo. quanto i soggetti valutano credibile una scala psicologica. quanto le componenti di una scala psicologica misurano la stessa cosa. quanto è valida una scala psicologica. Per calcolare l'intervallo di confidenza è necessario conoscere. la mediana. la potenza statistica. l'errore standard. la dimensione dell'effetto. I valori statisticamente significativi sono quelli. nessuna delle alternative. che non hanno a che fare con gli intervalli di confidenza. compresi all'interno dell'intervallo di confidenza. non compresi all'interno dell'intervallo di confidenza. L'insieme dei valori che al 95% includono la 'vera' media della popolazione è. il range dei valori al 95%. l'intervallo di confidenza al 95%. la potenza statistica al 95%. l'affidabilità dei valori al 95%. A minore variabilità nei dati corrisponderà. maggiore ampiezza della media. minor ampiezza dell'intervallo di confidenza. minore ampiezza della media. maggiore ampiezza dell'intervallo di confidenza. Un intervallo di confidenza è un insieme di valori. che definiscono il range di una distribuzione. che indicano la dimensione dell'effetto di uno studio. all'intero del quale è più probabile che giaccia il valore della popolazione. che definiscono l'affidabilità di una scala di misura. La potenza statistica di uno studio aumenta. se aumenta la grandezza del campione. se aumenta la dimensione dell'effetto. se aumenta il livello di significatività. tutte le alternative. All'aumentare della grandezza del livello di significatività. diminuisce la probabilità di commettere un errore di I tipo. aumenta la probabilità di commettere un errore di II tipo. aumenta la probabilità di commettere un errore di I tipo. diminuisce la potenza statistica. La potenza statistica diminuisce. se diminuisce la dimensione dell'effetto. se diminuisce la grandezza del campione. tutte le alternative. se diminuisce il livello di significatività. La potenza statistica è collegata a. la dimensione dell'effetto. tutte le alternative. l'ampiezza dei campioni. il livello di significatività. All'aumentare della dimensione dell'effetto. la potenza statistica aumenta. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica diminuisce. La potenza statistica è l'inverso. dell'errore di II tipo. della significatività. della dimensione dell'effetto. dell'errore di I tipo. La probabilità che una ricerca sia in grado di rilevare un effetto nel campione selezionato quando l'effetto esiste (nella popolazione statistica) è. la potenza statistica. la distribuzione binomiale. la distribuzione normale. la significatività statistica. L'errore di I tipo è la probabilità. di concludere che non c'è un effetto quando in realtà c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che c'è un effetto che in realtà c'è. di concludere che c'è un effetto quando in realtà non c'è. All'aumentare della grandezza del livello di significatività. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica aumenta. la potenza statistica diminuisce. L'errore di II tipo è la probabilità. di concludere che c'è un effetto quando in realtà non c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che non c'è un effetto quando in realtà c'è. di concludere che c'è un effetto che in realtà c'è. La probabilità di concludere che non c'è un effetto quando in realtà c'è è detta. errore di II tipo. nessuna delle alternative. potenza statistica. errore di I tipo. La probabilità di concludere che c'è un effetto quando in realtà non c'è è detta. errore di II tipo. errore di I tipo. potenza statistica. nessuna delle alternative. L'errore di II tipo è l'inverso. della significatività. dell'errore di I tipo. della dimensione dell'effetto. della potenza statistica. Si considera adeguato un valore di potenza statistica di. 0.001. 0.05. 0.3. 0.8. La numerosità campionaria ottimale dipende. da quanto siamo disposti a rischiare in termini di errore di I e II tipo. dalla dimensione dell'effetto dello studio. nessuna delle alternative. entrambe le alternative. La dimensione dell'effetto e l'entità dell'errore di I e di II tipo determinano. la numerosità campionaria ottimale. la numerosità degli item di una scala di misura. la numerosità di studi da includere in una meta-analisi. la numerosità delle analisi statistiche da eseguire. L'errore di I tipo si verifica quando. nessuna delle alternative. viene rilevato un andamento nei dati che è in realtà casuale. si conclude che c'è un effetto quando in realtà non c'è. entrambe le alternative. L'errore di II tipo si verifica quando. entrambe le alternative. nessuna delle alternative. viene attribuito al caso un andamento nei dati che è reale. di concludere che non c'è un effetto quando in realtà c'è. All'aumentare della grandezza del campione. la potenza statistica diminuisce. nessuna delle alternative. la potenza statistica aumenta. la potenza statistica rimane invariata. |