psicometria pedroli
|
|
Title of test:
![]() psicometria pedroli Description: da 21 a 48 |



| New Comment |
|---|
NO RECORDS |
|
Lo scostamento semplice medio: è la variazione aritmetica dei valori assoluti degli scarti delle x da un valore medio. è la media aritmetica dei valori assoluti degli scarti delle x da un valore medio. è la moda dei valori assoluti degli scarti delle x da un valore medio. è la mediana dei valori assoluti degli scarti delle x da un valore medio. Lo scostamento semplice medio può essere calcolato usando: media aritmetica e deviazione standard. moda o mediana. media aritmetica o moda. media aritmetica o mediana. La differenza media può essere: nessuna delle alternative. con ripetizione. entrambe le alternative. semplice. La differenza media permette: di calcolare la media delle differenze in valore assoluto fra tutte le possibili coppie di valori. di calcolare la media dei prodotti in valore assoluto fra tutte le possibili coppie di valori. di calcolare la deviazione standard delle differenze in valore assoluto fra tutte le possibili coppie di valori. di calcolare la somma dei prodotti in valore assoluto fra tutte le possibili coppie di valori. Lo studio della concentrazione e utile per: calcolare la media dei prodotti in valore assoluto fra tutte le possibili coppie di valori. prendere decisioni rispetto alla relazione causale tra le variabili. calcolare la deviazione standard delle differenze in valore assoluto fra tutte le possibili coppie di valori. vedere se il fenomeno è equamente distribuito fra tutte le unità statistiche. La concentrazione si calcola usando: la deviazione standard. il metodo grafico di Lorenz. la probabilità congiunta. l'anova. Basandosi sulla probabilità è possibile: generalizzare i risultati ottenuti dal campione alla popolazione. generalizzare i risultati ottenuti dalla popolazione al campione. generalizzare i risultati ottenuti dal laboratorio alla vita reale. modificare i risultati ottenuti per adeguarli alla popolazione. Per la concezione classica della probabilità possono esistere degli eventi: nessuna delle due alternative. totalmente certi. entrambe le alternative proposte. totalmente improbabili. La concezione logicistica di probabilità: considera la probabilità di un evento una relazione logica fra l'evento stesso ed un insieme di conoscenze di cui si dispone. viene denominata anche concezione classica. valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al veri?carsi di un evento. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. Per la concezione classica della probabilità questa può assumere valori che vanno da: -1 e 0. 0 e 1. -1 e 1. 0 e 100. Per la concezione classica della probabilità questa: è il rapporto fra il numero dei casi osservati ed il numero n dei casi impossibili. è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) ed il numero n dei casi possibili. è il rapporto fra il numero totale dei casi ed il numero n dei casi osservati. è il rapporto fra il numero m dei casi sfavorevoli (al verificarsi di E) ed il numero n dei casi impossibili. La concezione assiomatica di probabilità: valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al veri?carsi di un evento. considera la probabilità di un evento è una relazione logica fra l'evento stesso ed un insieme di conoscenze di cui si dispone. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. viene denominata anche concezione classica. La concezione soggettiva di probabilità: viene denominata anche concezione classica. parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi. è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) ed il numero n dei casi possibili. valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al veri?carsi di un evento. La concezione frequentista della probabilità si basa: su entrambe le alternative proposte. sull'esperimento. sull'osservazione di prove ripetute del fenomeno. sull'esperimento. Il calcolo delle probabilità è: uno strumento irrazionale che permette di prendere decisioni in condizioni di incertezza. uno strumento razionale che permette di prendere decisioni in condizioni di incertezza. uno strumento irrazionale che permette di prendere decisioni in condizioni di certezza. uno strumento razionale che permette di prendere decisioni in condizioni di certezza. Secondo la teoria frequentista la probabilità di una certa caratteristica: è la frequenza relativa in un numero di prove ritenuto "sufficientemente" elevato. è il rapporto tra il numero di casi favorevoli all'evento e il numero di casi ugualmente possibili. è la frequenza cumulata in un ridotto numero di prove. il rapporto tra il numero di casi sfavorevoli all'evento e il numero di casi ugualmente possibili. Secondo la teoria soggettiva della probabilità: la probabilità associata a una certa affermazione misura il grado di credenza attribuito all'affermazione stessa da una certa persona. la probabilità di un evento è data dal limite al quale tende la frequenza relativa della caratteristica in esame col crescere del numero delle osservazioni. la probabilità di un evento è il rapporto tra il numero di casi favorevoli all'evento e il numero di casi ugualmente possibili. lo sperimentatore assegna a seconda della sua credenza un valore. I concetti primitivi del calcolo della probabilità sono: evento. prova. Tutte le alternative sono corrette. probabilità. Nell'impostazione assiomica del calcolo delle probabilità una prova è definita come: è anche detto evento o descrizione. non genera mai un evento. un esperimento soggetto a incertezza. una qualsiasi situazione che non permette di avere dei risultati. Nella teoria frequentista se la frequenza di un evento è pari a uno possiamo dire che: si è verificato in ogni osservazione. è impossibile. non si è verificato in nessuna delle n prove effettuate. nessuna delle alternative. Nella teoria frequentista se la frequenza di un evento è pari a zero possiamo dire che: è impossibile. nessuna delle alternative. si è verificato in ogni osservazione. non si è verificato in nessuna delle n prove effettuate. Nell'impostazione assiomica del calcolo delle probabilità un evento è definito come: uno dei possibili risultati della prova. un esperimento soggetto a incertezza. nessuna delle alternative. un numero associato al presentarsi di un evento. Legge empirica del caso dice che: fatta una ridotta serie di prove la frequenza tende ad assumere valori distanti alla probabilità dell'evento. fatta un'ampia serie di prove la frequenza tende ad assumere valori distanti alla probabilità dell'evento. fatta un'ampia serie di prove la frequenza tende ad assumere valori prossimi alla probabilità dell'evento. fatta una ridotta serie di prove la frequenza tende ad assumere valori prossimi alla probabilità dell'evento. Per la concezione soggettiva la probabilità è rappresentata da: numero reale compreso fra 1 e -1. numero reale compreso fra 0 e 1. numero reale compreso fra 0 e infinito. numero reale compreso fra -1 e 0. Nell'impostazione assiomica del calcolo delle probabilità una probabilità è definita come: un esperimento soggetto a incertezza. un numero associato al presentarsi di un evento. uno dei possibili risultati della prova. nessuna delle alternative. Quando voglio calcolare la probabilità che lanciando un dado esca 3 sapendo che è uscito un numero dispari sto calcolando: probabilità contabile. la probabilità condizionata. la probabilità composta. la probabilità corrispettiva. Quando si vuol calcolare la probabilità di prendere ad un esame e di vincere una schedina prenderò in considerazione: probabilità contabile. la probabilità condizionata. la probabilità collaterale. la probabilità composta. La probabilità composta di tre eventi indipendenti con probabilità pari a 1/4, 1/3 e 1/2 è pari a: 1/24. 1/9. 1/15. 1/2. Il concetto di probabilità composta deriva da quello di: probabilità contabile. probabilità correlata. probabilità condizionata. probabilità binomiale. Considerando il lancio di un dado, la probabilità che esca 3 sapendo che è uscito un numero disperi è uguale a: 1/4. 1/3. 1/6. 1/12. La probabilità composta di due eventi indipendenti è pari a: la probabilità di uno sommata alla probabilità dell'altro. la probabilità di uno divisa per la probabilità dell'altro. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo l. a probabilità di uno moltiplicata per la probabilità dell'altro. La probabilità che due eventi si verifichino contemporaneamente è pari a: la probabilità di uno moltiplicata per la probabilità dell'altro. la probabilità di uno dei due eventi divisa per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità di uno divisa per la probabilità dell'altro. La probabilità di un evento A condizionato a B può essere: minore o uguale alla probabilità di A. minore probabilità di A. maggiore o uguale alla probabilità di A. Tutte le alternative sono corrette. Quando consideriamo la probabilità condizionata di un evento "A": Se B non si verifica, l'evento A condizionato a B è definito. Se B non si verifica, l'evento A condizionato a B non è definito. nessuna delle precedenti. Se B si verifica, l'evento A condizionato a B non è definito. La probabilità condizionata si definisce come: la probabilità di un evento moltiplicata per la probabilità dell'altro. la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo. la probabilità del veri?carsi di A nell'ipotesi che B non si sia verificato. la probabilità del verificarsi di A nell'ipotesi che B si sia verificato. In una distribuzione di probabilità uniforme: non è possibile conoscere i valori di probabilità legati agli elementi dell'insieme. ogni elemento di diversi insiemi correlati ha lo stesso valore di probabilità. ogni elemento di un insieme finito ha lo stesso valore di probabilità. gli elementi dell'insieme hanno diversi valori di probabilità. Un esempio di distribuzione di probabilità uniforme: l'osservazione di un fenomeno durante un'osservazione. prendere 30 a due esami consecutivi. la vincita di un campionato di calcio. il lancio di un dado. Nelle distribuzioni di probabilità continue: la variabile viene misurata con valori numerici interi. la variabile viene espressa su scala nominale. la variabile viene espressa su scala ordinale. la variabile viene espressa su un scala continua. La distribuzione di Poisson esprime le probabilità per: eventi che non hanno relazioni temporali. eventi il cui esito può essere solo un successo o un insuccesso. tutte le precedenti. eventi che si verificano successivamente ed indipendentemente in un intervallo di tempo. La probabilità di una serie di estrazioni da un mazzo di carte senza reinserimento si distribuisce seguendo: la distribuzione ipergeometrica. la distribuzione di Poisson. la distribuzione binomiale. la distribuzione normale. La distribuzione di probabilità di Poisson prende in considerazione l'indice lambda che rappresenta: la moda della distribuzione. la varianza di eventi che si verificano. la deviazione standard di eventi che si verificano. la media di eventi che si verificano in un dato lasso di tempo. La distribuzione binomiale riguarda: eventi il cui esito può essere solo un successo o un insuccesso. tutte le precedenti. eventi che non hanno relazioni temporali. eventi che si verificano successivamente ed indipendentemente in un intervallo di tempo. I valori che contraddistinguono una distribuzione di probabilità sono: moda e varianza. moda e deviazione standard. mediana e varianza. media e deviazione standard. Le distribuzioni di probabilità possono essere: né continue né discrete. continue o discrete. solo continue. solo discrete. Una distribuzione di probabilità è: una rappresentazione grafica della probabilità di un evento. una rappresentazione analitica della probabilità di un evento. un modello matematico che collega i valori di una variabile alle probabilità che possano essere osservati. un modello che collega i valori di una variabile alle probabilità che questa faccia parte del campione. Nelle distribuzioni di probabilità discrete: la variabile viene espressa su scala nominale. la variabile viene espressa su un scala continua. la variabile viene espressa su scala ordinale. la variabile viene misurata con valori numerici interi. La legge dei grandi numeri dice che: la media di un numero sufficiente di campioni è sufficientemente vicina alla media reale. la media di un piccolo campione è sufficientemente vicina alla media reale. la media di due eventi è sufficientemente vicina alla media reale. la somma di un numero sufficiente di campioni è sufficientemente vicina alla media reale. La distribuzione normale fa riferimento a variabili: nominali. continue. discrete. continue e discrete. Il punto più alto di una curva normale viene definito: asse delle y. punto di massimo. punto di flesso. asse delle x. Quando indichiamo una distribuzione normale riportiamo i valori di: media e mediana. moda e varianza. devianza a deviazione standard. media e deviazione standard. Moda, mediana e media non coincidono nella distribuzione di probabilità: normale standardizzata. nessuna delle alternative. normale. di Poisson. Moda, mediana e media coincidono nella distribuzione di probabilità: normale. ipergeometrica. di Poisson. binomiale. La deviazione standard dalla media rappresenta, nella curva normale: il punto più alto della distribuzione. l'asse delle y. lo zero assoluto. i punti di flesso. Due distribuzioni normali con medie diverse: avranno una diversa posizione sull'asse delle x. saranno uguali. sono considerate comunque standardizzate. avranno diversi punti di massimo. Due distribuzioni normali con diverse deviazioni standard: sono considerate comunque standardizzate. saranno uguali. avranno diversi punti di flesso. avranno una diversa posizione sull'asse delle x. Nella distribuzione normale moda, mediana e media rappresentano: l'asse delle x. tre distinti valori. i punti di flesso. il punto più alto della distribuzione. Usando la distribuzione normale standardizzata possiamo: confrontare la prestazione di due diversi soggetti allo stesso test. confrontare due diverse distribuzioni di probabilità. tutte le alternative sono corrette. confrontare punteggi a diversi test. La curva normale varia tra: più e meno uno. più e meno 100. più e meno infinito. più e meno 3. La distribuzione normale standardizzata: ha media 1 e deviazione standard che varia a seconda del campione. ha media 1 e deviazione standard 1. ha media 0 e deviazione standard 1. ha media e deviazione standard diverse a seconda del campione. L'area compresa fra la curva normale e l'asse delle x equivale ad una probabilità pari a: 0. 0.5. 100. 1. L'area compresa tra più e meno due deviazioni standard in una curva normale standardizzata è pari al: 99.73%. 68.26%. 50%. 95.45%. L'area compresa tra più e meno tre deviazioni standard in una curva normale standardizzata è pari al: 95.45%. 68.26%. 50%. 99.73%. L'area compresa tra più e meno una deviazione standard in una curva normale standardizzata è pari al: 50%. 99.73%. 68.26%. 95.45%. Le code della distribuzione normale: non toccano mai l'asse delle x. si incrociano con l'asse delle x. la distribuzione normale non ha code. non toccano mai l'asse delle y. Per la distribuzione normale standardizzata, usando delle specifiche tavole è possibile calcolare: l'area sottesa alla curva tra l'asse delle x e un dato valore. la media. l'area sopra la curva. l'area sottesa alla curva tra l'asse delle y e un dato valore. I punti z indicano: quante deviazioni standard il punteggio si discosta dalla media la media. dei punteggi di diversi soggetti ad un test. la differenza interquartile. i punteggi dei test in relazione alla distribuzione binomiale. I punti z fanno riferimento: alla curva normale standardizzata. alla curva normale. alla distribuzione binomiale. alla distribuzione ipergeometrica. i punti z vengono calcolati usando: moda e deviazione standard. mediana e moda. mediana e varianza. media e deviazione standard. Lo scopo della standardizzazione dei punteggi grezzi è: capire la relazione casuale tra le variabili. rendere dati diversi direttamente confrontabili. confrontare punteggi ottenuti allo stesso test da soggetti diversi. capire la relazione causale tra le variabili. Il campionamento può essere: probabilistico. entrambi. non probabilistico. nessuno dei due. Nel campionamento casuale la selezione può essere fatta: senza ripetizione. con ripetizione. nessuna delle due alternative. entrambe le alternative. Quando applichiamo la selezione senza ripetizione al campionamento casuale: la probabilità che ogni elemento venga estratto cambia ad ogni estrazione. la probabilità che ogni elemento venga estratto rimane costante ad ogni estrazione. già prima delle estrazioni ogni elemento ha una probabilità diversa di essere estratto. non è possibile conoscere la probabilità delle diverse estrazioni. Il campionamento casuale semplice ha il limite di: fornire un campione non rappresentativo della popolazione. richiedere elevati costi e tempi di realizzazione. raggiungere un limitato numero di soggetti. richiedere limitati costi e tempi di realizzazione. Il campionamento casuale può essere applicato se: entrambe le alternative. la popolazione è statisticamente omogenea. le unità statistiche sono individuabili mediante un numero. nessuna delle due alternative. Nel campionamento probabilistico ogni unità della popolazione ha: la stessa probabilità di fare parte del campione. una probabilità casuale e diversa di fare parte del campione. un probabilità che non può essere stimata di far parte del campione. una diversa probabilità di fare parte del campione. L'obiettivo del campionamento è: ottenere un campione rappresentativo della popolazione. ottenere un soggetto che riproduca le caratteristiche della popolazione. ottenere una popolazione rappresentativa del campione. ottenere solo un numero limitato di soggetti. Fare esperimenti sulla popolazione ha lo svantaggio di: richiedere tempi e costi molto elevati. richiedere tempi lunghi ma costi contenuti. richiedere tempi e costi molto limitati. coinvolgere pochi soggetti. La verifica delle ipotesi permette: basandosi sulla popolazione, di decidere se l'ipotesi fatta è accettabile anche a livello del campione. di stimare dal campione alcuni parametri della popolazione. basandosi sul campione, di decidere se l'ipotesi fatta è accettabile anche a livello della popolazione. di capire se il soggetto analizzato appartiene o meno alla popolazione. La stima campionaria permette: basandosi sulla popolazione, di decidere se l'ipotesi fatta è accettabile anche a livello del campione. di stimare della popolazione alcuni parametri del campione. di stimare dal campione alcuni parametri della popolazione. di capire se il soggetto analizzato appartiene o meno alla popolazione. L'inferenza statistica può riguardare: la verifica delle ipotesi l. a stima campionaria. entrambe le alternative. nessuna delle due. L'inferenza statistica può essere definita come il procedimento che permette di: analizzare le risposte del gruppo di controllo per avere informazioni sul gruppo sperimentale. analizzare il campione per ottenere conclusioni circa la popolazione. analizzare la popolazione per ottenere conclusioni circa il campione. analizzare le risposte dei singoli soggetti per avere informazioni sulla distribuzione. Usando l'inferenza statistica può possiamo: usare i dati ottenuti dal campione per avere informazioni sulla popolazione. analizzare la distribuzione della popolazione per avere informazioni sui singoli soggetti. analizzare la distribuzione del campione per avere informazioni sui singoli soggetti. usare i dati ottenuti dalla popolazione per avere informazioni sul campione. Il campionamento probabilistico comprende: il campionamento standardizzato. l campionamento stratificato e a più stadi. i il campionamento a scelta ragionata. tutti i precedenti. Stratificare una popolazione vuol dire: selezionare solo i soggetti volontari. dividerla in sottopopolazioni. rimuovere alcuni elementi perché non idonei. ordinare i membri secondo criteri prestabiliti. Nel campionamento stratificato l'estrazione casuale si applica: all'intero campione. ad ogni sottogruppo della popolazione. all'intera popolazione. non può essere applicata. Il campionamento stratificato si applica: a popolazioni molto piccole. a popolazioni molto ampie. a campioni molto ristretti. a campioni ampi. Il campionamento a più stadi prevede: la selezione di soggetti volontari. la divisione della popolazione in stadi sempre più piccoli. la divisione della popolazione in stadi sempre più grandi. la divisione della popolazione in gruppi secondo criteri casuali. Nel campionamento a più stadi è necessario che. le differenze tra i gruppi primari siano evidenti. non ci siano differenze tra i gruppi. non vengono prese in considerazione le differenze tra gruppi primari. le differenze tra i gruppi primari siano limitate. Durante le procedure di campionamento sistematico la popolazione: viene ordinata e numerata viene selezionare e le unità sono estratte ad intervalli regolari. viene estratta casualmente dal campione. viene dividere in stadi ed il campione è estratto casualmente all'interno di ogni stadio. viene esclusa completamente dallo studio. Il campionamento sistematico permette di: ordinare e numerare una popolazione e selezionare ad intervalli regolari le unità. selezionare solo i soggetti volontari. dividere la popolazione in stadi ed estrarre casualmente all'interno di ogni livello. estrarre casualmente i soggetti dalla popolazione. Nel campionamento non probabilistico a scelta ragionata: tutti i soggetti hanno la stessa probabilità di essere selezionati. il campione è formato solo da volontari. il campione è estratto in maniera casuale. vengono scelti elementi che rispondono a specifiche esigenze. Nel campionamento non probabilistico: non è possibile conoscere la probabilità di inclusione nel campione di ogni unità. tutti i soggetti hanno la stessa probabilità di essere selezionati. la probabilità di inclusione nel campione è dipende dal numero di livelli in cui è stata divisa la popolazione. è possibile conoscere la probabilità di inclusione nel campione di ogni unità. Nel campionamento sistematico il passo di campionamento è: il criterio con cui vengono divisi i livelli della popolazione. il salto che si compie nella selezione tra 2 unità. il criterio con cui vengono divisi gli stadi. la fase del processo in cui vengono selezionati i soggetti. Uno stimatore si dice distorto quando: la media calcolata sul campione è diversa dal corrispondente parametro della popolazione. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. la media calcolata sul campione è uguale al corrispondente parametro della popolazione. Uno stimatore si dice corretto quando: la media di tutte le stime di tutti i campioni è uguale al parametro della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. è meno disperso attorno al valore del parametro. la media calcolata sul campione è diversa dal corrispondente parametro della popolazione. Uno stimatore si dice efficiente quando: non è possibile calcolare la simmetria tra campione e popolazione. la media di tutte le stime di tutti i campione è uguale al parametro della popolazione. è meno disperso attorno al valore del parametro. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. Uno stimatore si dice consistente quando: è meno disperso attorno al valore del parametro. la media di tutte le stime di tutti i campione è uguale al parametro della popolazione. all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione. non è possibile calcolare la simmetria tra campione e popolazione. Più aumentiamo la numerosità del campione più la distribuzione della nostra variabile: si avvicinerà ad una distribuzione ipergeometrica. si avvicinerà ad una distribuzione normale. si discosterà dalla distribuzione normale. non sarà valutabile. Il parametro può essere definito con la lettera: theta. delta. alfa. beta. Il parametro è: una funzione delle variabili campionarie. il valore della funzione delle variabili campionarie. la media del campione. una costante della popolazione. Lo stimatore è: una costante della popolazione. una funzione delle variabili campionarie. la media del campione. il valore della funzione delle variabili campionarie. La stima è: il valore della funzione delle variabili campionarie. la media del campione. una costante della popolazione. una funzione delle variabili campionarie. Uno stimatore dovrebbe essere: distorto e consistente. corretto e inconsistente. corretto, efficiente e consistente. coretto, distorto ed efficiente. L'errore medio di campionamento si calcola a partire: dalla varianza corretta. dalla mediana corretta. dalla moda corretta. dalla media corretta. Ho stimato un parametro della popolazione da un campione di 72 casi e da uno di 270 , dove avremo il minor l'errore medio di campionamento?. entrambi avranno lo stesso errore medio di campionamento. campione di 72 casi. non è possibile conoscere a priori l'errore. campione di 270 casi. Per ridurre l'errore medio di campionamento è necessario: aumentare il campione. usare soggetti singoli. diminuire il campione. eliminare il campione. Quando indichiamo la stima puntuale di un parametro nei risultati del nostro esperimento indicheremo anche: il parametro originale. la deviazione standard. l'errore di campionamento medio. l'intervallo del parametro. La stima puntuale può essere calcolata: solo conoscendo informazioni sulla popolazione. senza conoscere informazioni sulla popolazione. senza conoscere informazioni sul campione. solamente a partire dai parametri da stimare della popolazione. Possiamo parlare di stime di intervallo di un parametro quando: la stima si esprime con un valore numerico preciso. si determina un intervallo che contiene il parametro. si determina un intervallo da cui è escluso il parametro. non è possibile definire un valore. L'errore medio di campionamento indica: l'ampiezza dell'errore relativo all'uso della popolazione per stimare un parametro del campione. l'errore in cui incappiamo quando non assegniamo il campione in maniera casuale alle diverse condizioni sperimentali. l'errore standard. l'ampiezza dell'errore relativo all'uso del campione per stimare un parametro della popolazione. Possiamo parlare di stime puntuali di un parametro quando: si determina un intervallo che contiene il parametro. non è possibile definire un valore. si determina un intervallo da cui è escluso il parametro. la stima si esprime con un valore numerico preciso. La stima di un parametro della popolazione può essere: nessuna delle due. entrambe. puntuale. di intervallo. I parametri della popolazione sono: dipendono dal campionamento. costanti. dipendono dall'esperimento. dipendono dal campione. Il livello di fiducia viene indicato con la lettera greca: alfa. theta. lambda. beta. La zona dell'intervallo di fiducia in cui è più probabile che il nostro valore ricada è definita come: "alfa più beta". alfa. "alfa diviso due". "uno meno alfa". L'errore medio di campionamento: viene stimato usando le medie dei campioni. viene stimato usando le differenze interquartili dei campioni. viene stimato usando le varianze corrette dei campioni. viene stimato usando le varianze dei campioni. Per stimare l'intervallo di una media è necessario decidere: il livello di variabilità. il livello di tolleranza. il livello di fiducia. il livello di deviazione standard. Per stimare l'intervallo di una media è necessario conoscere: la stima puntuale. il numero esatto di elementi non inclusi nella popolazione. la distribuzione della media campionaria intorno a μ. il livello di tolleranza. Quando stabiliamo un livello di fiducia pari a 0,95 per la stima a intervallo significa che: su 100 medie di campioni 95 cadono nell'intervallo e 5 fuori. su 100 medie di campioni solo una cadrà dentro l'intervallo. su 100 medie di campioni 99 cadono nell'intervallo e 1 cade fuori. Su 100 medie non possiamo conoscerne solo 5. Quando stabiliamo un livello di fiducia pari a 0,99 per la stima a intervallo significa che: su 100 medie di campioni 95 cadono nell'intervallo e 5 fuori. su 100 medie di campioni 99 cadono nell'intervallo e 1 cade fuori. Su 100 medie non possiamo conoscerne una sola. su 100 medie di campioni solo una cadrà dentro l'intervallo. Il teorema del limite centrale afferma che: le medie di campioni sufficientemente grandi sono distribuite normalmente. non si può conoscere a priori la distribuzione di un campione. le medie di campioni piccoli sono distribuite normalmente. le medie di tutti i tipi di campioni sono distribuite normalmente. Solitamente le ipotesi statistiche vengono verificate usando: il campione. soggetti singoli. la popolazione. la media. Il procedimento della verifica delle ipotesi può essere. entrambi. non parametrico. nessuna delle due. parametrico. Il procedimento di verifica delle ipotesi parametrico si applica quando: abbiamo variabili qualitative. non si conosce la distribuzione di probabilità. è nota la distribuzione di probabilità. non è presente un campione. H0 rappresenta: L'ipotesi alternativa. entrambe. L'ipotesi nulla. nessuna delle due. Il procedimento di verifica delle ipotesi non parametrico si applica quando: è nota la distribuzione di probabilità. non è presente un campione. non si conosce la distribuzione di probabilità. abbiamo variabili senza dati mancanti. La verifica delle ipotesi si basa su una decisione tra due ipotesi definite dal ricercatore: Ipotesi nulla (H0) e ipotesi alternativa (H1). Ipotesi di partenza (H1) e ipotesi di arrivo (H0). Ipotesi di partenza (H0) e ipotesi di arrivo (H1). Ipotesi nulla (H1) e ipotesi alternativa (H0). L'ipotesi nulla è anche detta: ipotesi delle differenze. ipotesi dell'uguaglianza o delle non differenze. sperimentale o di ricerca. H1. L'ipotesi alternativa: è anche detta ipotesi dell'uguaglianza o delle non differenze. è falsificata quando viene falsificata l'ipotesi nulla. è accettata quando viene falsificata l'ipotesi nulla. è accettata quando viene accettata l'ipotesi nulla. L'ipotesi nulla e ipotesi alternativa. sono esaustive. nessuna delle due. entrambe le alternative proposte sono corrette. sono mutualmente escludentesi. La regione di accettazione rappresenta: la probabilità di accettare l'ipotesi alternativa. la probabilità di commettere un errore. la probabilità di accettare l'ipotesi nulla. la probabilità di avere una media maggiore di 0. La regione di rifiuto rappresenta: la probabilità di commettere un errore. la probabilità di accettare l'ipotesi alternativa. la probabilità di accettare l'ipotesi nulla. la probabilità di avere una media maggiore di 1. H1 rappresenta: nessuna delle due. L'ipotesi alternativa. entrambe. L'ipotesi nulla. L'errore di seconda specie si ha quando: si rifiuta l'ipotesi nulla quando è falsa. si rifiuta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è falsa. L'errore di prima specie si ha quando: si rifiuta l'ipotesi nulla quando è vera. si accetta l'ipotesi nulla quando è falsa. si rifiuta l'ipotesi nulla quando è falsa. si accetta l'ipotesi nulla quando è vera. Quando accettiamo l'ipotesi nulla: accettiamo anche l'ipotesi alternativa. non possiamo trarre conclusioni circa l'ipotesi alternativa. rifiutiamo automaticamente l'ipotesi alternativa. dobbiamo fare un altro test per capire se accettare l'ipotesi alternativa. Quando rifiutiamo l'ipotesi nulla: dobbiamo fare un altro test per capire se accettare l'ipotesi alternativa. accettiamo automaticamente l'ipotesi alternativa. non possiamo trarre conclusioni circa l'ipotesi alternativa. rifiutiamo anche l'ipotesi alternativa. Per ridurre sia l'errore di prima che di seconda specie dobbiamo: ridurne uno ridurrà automaticamente anche l'altro. selezionare dalla popolazione solo soggetti volontari. possiamo intervenire solo sull'errore di prima specie. aumentare la dimensione del campione. L'ipotesi alternativa permette di ipotizzare che la stima campionaria: sia minore o maggiore del elativo valore della popolazione. entrambe. nessuna delle due. sia diverso al relativo valore della popolazione. Quando l'ipotesi alternativa afferma che i due valori sono diversi applicheremo: test standardizzato. test unilaterale destro. test unilaterale sinistro. un test bilaterale. Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia minore del valore della popolazione useremo: test standardizzato. test bilaterale. test unilaterale destro. test unilaterale sinistro. Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia maggiore del valore della popolazione useremo: test unilaterale destro. test bilaterale. test unilaterale sinistro. test standardizzato. Quando non conosciamo la varianza della popolazione con cui vogliamo confrontare il nostro campione con meno di 30 soggetti: la stimeremo usando quella del campione. usiamo della del campione perché assumiamo che siano equivalenti. tutte le alternative. non possiamo fare nessun calcolo. Nella distribuzione "t di student": la curva cambia in base alla numerosità. esiste una sola curva possibile. la curva è indipendente dalla numerosità. la curva è fissa. Dalle tavole della t di student otteniamo: Il valore critico di t che fa riferimento alla distribuzione teorica. il valore di t da confrontare con il valore critico di t. la varianza del campione. Il valore critico di t che fa riferimento ai dati ottenuti. Quando usiamo il test t per capire se un campione appartiene ad una popolazione: non conosciamo la varianza della popolazione. non siamo interessati alla varianza della popolazione. conosciamo la varianza della popolazione. non usiamo la varianza né del campione né della popolazione. I gradi di libertà della t di student si calcolano: N-1. N/1. N+1. N=n. Nella distribuzione "t di student" la numerosità del campione: equivale al valore critico. ci permette di calcolare i gradi di libertà. equivale ai gradi di libertà della distribuzione. è un valore che non va mai tenuto in considerazione. Nelle tabelle per calcolare il valore critico del mio test t di Student posso testare: solo ipotesi ad una coda. solo ipotesi a due code. nessun tipo di ipotesi. ipotesi ad una e due code. Le tavole della t di student ci permettono di verificare: solo ipotesi bidirezionali. sia ipotesi monodirezionali che bidirezionali. né ipotesi monodirezionali né bidirezionali. solo ipotesi monodirezionali. Quando ho un campione con meno di 30 soggetti i dati seguono la distribuzione: entrambe. nessuna delle due. normale. t di student. Se il valore calcolato di t è maggiore del valore critico di t: accetterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. rifiuterò l'ipotesi nulla. rifiuterò l'ipotesi alternativa. Quando voglio verificare se il mio campione, con meno di 30 soggetti, appartiene alla popolazione applicherò: t test. anova. test della binomiale. chi quadro. Se il valore critico di t è minore del valore calcolato di t: rifiuterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. accetterò l'ipotesi nulla. rifiuterò l'ipotesi alternativa. Se il valore critico di t è maggiore del valore calcolato di t: accetterò l'ipotesi alternativa. rifiuterò l'ipotesi nulla. non potrò fare affermazioni circa l'ipotesi nulla. accetterò l'ipotesi nulla. Quando il chi-quadrato «calcolato» è maggiore del chi-quadrato «critico»: rifiutiamo H0. tutte le alternative. rifiutiamo H1. accettiamo H0. Quando il chi-quadrato «calcolato» è minore del chi-quadrato «critico»: rifiutiamo H0. nessuna delle alternative. accettiamo H1. accettiamo H0. Quando il chi-quadrato «critico» è minore del chi-quadrato «calcolato»: accettiamo H0. tutte le alternative. rifiutiamo H0. rifiutiamo H1. I gradi di libertà del chi-quadrato si calcolano: (numero di righe + 1) x (numero di colonne + 1). (numero di righe * 1) x (numero di colonne * 1). (numero di righe / 1) x (numero di colonne / 1). (numero di righe - 1) x (numero di colonne - 1). Per verificare la nostra ipotesi dobbiamo confrontare i valori del chi-quadrato detti: "ottenuto" e "tabellare". "ottenuto" e "critico". "calcolato" e "tabellare". "calcolato" e "critico". Il test del chi-quadrato non può essere usato: nessuna delle alternative. con variabili ordinali. con variabili nominali. con variabili a rapporti equivalenti. Per calcolare gli indici necessari per il test chi-quadrato i dati devono essere organizzati: usando una tabella per ogni variabile analizzata. in tabelle di contingenza. in grafici a torta. dividendo i numeri pari da quello dispari. Il test del chi-quadrato permette: di verificare le differenze tra valori teorici. di verificare le differenze tra valori osservati e valori teorici. tutte le alternative. di verificare le differenze tra valori osservati. La retta di regressione è rappresentata con quale equazione?. y = b + ax. y = a + bx. x = a + bx. x= b + ay. L'intercetta è rappresentata dalla lettera: y. a. x. b. La retta di regressione può essere calcolata usando: il t test. il metodo dei massimi quadrati. il metodo dei minimi quadrati. la correlazione. Quando il coefficiente di regressione è pari a zero la retta: sarà parallele agli assi cartesiani. diventerà una linea curva. sarà esterne al piano cartesiano. perderà la loro forma diventando linee spezzate. Il coefficiente di regressione indica: di quanto varia la Y al variare di una unità di X. entrambe le alternative. nessuna delle due alternative. se Y è crescente o decrescente. Per rappresentare i valori durante l'analisi della regressione possiamo usare: diagrammi a dispersione. tabelle a singola o doppia entrata. entrambe le alternative. nessuna delle due alternative. Il coefficiente di regressione nell'equazione della retta è rappresentato dalla lettera: y. b. a. x. La regressione lineare può essere rappresentata da: una curva. una retta. una linea spezzata. una parabola. Quando analizziamo il legame tra due variabili queste possono derivare: nessuna delle due alternative. due popolazioni diverse. una stessa popolazione. entrambe le alternative. La correlazione fra le due variabili esprime: l'intensità del legame. la direzione del legame. la causalità del legame. un rapporto di causa-effetto. La funzione di regressione più usata è quella: parabolica. lineare. curvilinea. standardizzata. La funzione di regressione permette di: valutare il valore della variabile dipendente al variare della variabile indipendente. valutare il valore della variabile dipendente al variare dell'atra variabile dipendente. valutare il valore di una variabile indipendente al variare dell'altra variabile indipendente. valutare il valore della variabile indipendente al variare della variabile dipendente. La correlazione ci permette di: misurare la forza o l'intensità del legame fra due variabili. nessuna delle due. capire la relazione causale tra le variabili. entrambe. La covarianza è: il valore degli scarti di y su x. il valore minimo del prodotto degli scarti corrispondenti di X e di Y. il valore massimo del prodotto degli scarti corrispondenti di X e di Y. il valore medio del prodotto degli scarti corrispondenti di X e di Y. Il coefficiente di correlazione lineare ci dice: come le due variabili variano congiuntamente. la media del campione. come le due variabili variano singolarmente. come le due variabili si relazionano con una terza variabile. Si ha una correlazione inversa quando il coefficiente di correlazione lineare di Bravais-Pearson: è uguale a 0. è sia minore che maggiore di zero. è minore di 0. è maggiore di 0. Per analizzare la variabilità congiunta di due variabili usiamo: l'analisi fattoriale. la mediana. la deviazione standard. la covarianza. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a zero: non abbiamo informazioni per capire se è presente o meno non esiste correlazione lineare. esiste correlazione lineare. c'è una correlazione inversa tra le due variabili. non esiste correlazione lineare. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a -1: correlazione imperfetta. correlazione estrema. correlazione perfetta inversa. assenza di correlazione. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a +1: correlazione perfetta diretta. correlazione estrema. correlazione imperfetta. assenza di correlazione. Il coefficiente di correlazione lineare di Bravais-Pearson può variare: fra -1 e +1. fra 3 e -3. fra «meno infinito» e «più infinito». fra 0 e 1. Si ha una correlazione diretta quando il coefficiente di correlazione lineare di Bravais-Pearson: è uguale a 0. è sia minore che maggiore di zero. è maggiore di 0. è minore di 0. Il coefficiente di correlazione lineare di Bravais-Pearson rappresenta: la retta di regressione. la covarianza. la deviazione standard. la covarianza normalizzata. Per analizzare la correlazione solitamente si usa: il coefficiente di correlazione lineare di Bravais-Pearson. la media ponderata. la retta di regressione. l'anova. La covarianza varia: fra 0 e 1. fra «meno infinito» e «più infinito». fra 3 e -3. fra -1 e +1. La covarianza può essere: solo positiva o negativa. positiva, negativa o nulla. solo positiva o nulla. lineare o curvilinea. Quando il coefficiente di correlazione r è uguale a 0 si parla di: correlazione perfetta. correlazione estrema. correlazione imperfetta. assenza di correlazione. La varianza non spiegata può dipendere: da errori emersi durante la procedura. da altre variabili non controllate. entrambe. nessuna delle due. La varianza spiegata è: la variabilità di Y che non dipende dalla variabile X. l'errore standard. equivalente al coefficiente angolare. la variabilità della Y dovuta alla variabile X. La varianza non spiegata è: equivalente all'intercetta. la variabilità della Y dovuta alla variabile X. l'errore standard. la variabilità di Y che non dipende dalla variabile X. La varianza totale è data da: entrambe. nessuna delle due. la varianza non spiegata. la varianza spiegata. Il coefficiente di indeterminazione ci permette di definire: l'errore standard. la varianza di Y che dipende dalla variabile X. la varianza di Y che non dipende dalla variabile X. la varianza normalizzata. Il coefficiente di determinazione ci permette di definire: l'errore standard. la varianza dovuta allo scarto fra Y e X. la varianza dovuta a X. la varianza dovuta alla dipendenza lineare fra Y e X. Il coefficiente di determinazione è dato da: "r diviso due". alfa. "x" medio. "r" al quadrato. Il coefficiente di indeterminazione è dato da: 1-"r" al quadrato. "r diviso due". delta. "r" al quadrato. Quando voglio analizzare se due variabili rilevate su un solo campione sono tra loro correlate le organizzerò: in un tabella a singola entrata. in una tabella a doppia entrata. in un diagramma a torta. in una tabella semplice. Una varabile A è indipendente da una variabile B quando: per ogni valore di A le frequenze relative non dipendono dai valori di B. le frequenze relative di A e B sono uguali. per ogni valore di A le frequenze relative dipendono dai valori di B. le frequenze relative di A e B sono diverse. Il coefficiente b1 è detto: coefficiente di regressione di Y su X. intercetta di y. coefficiente di regressione di X su Y. intercetta di x. Quando analizziamo la dipendenza tra due variabili possiamo rappresentarle attraverso: grafici a torta. diagrammi di dispersione. istogrammi. linee di regressione. Nella linea di regressione di y rispetto a x i punti vengono rappresentati da ogni valore di x e: le mediane di y. la media ponderata dei valori della x relativi ad ogni livello di y. a media ponderata dei valori della Y relativi ad ogni livello di x. la moda di y. Nella linea di regressione di x rispetto a y i punti vengono rappresentati da ogni valore di x e: la media ponderata dei valori della x relativi ad ogni livello di y. la moda di y. le mediane di y. la media ponderata dei valori della Y relativi ad ogni livello di x. Usiamo la correlazione lineare si analizza quando, date due variabili x e Y: volgiamo verificare delle ipotesi. accettiamo H0. rifiutiamo H0. vogliamo capire se c'è un legame tra le due variabili. Il coefficiente di correlazione lineare di Bravais-Pearson può essere calcolato usando: coefficienti di regressione. covarianza e deviazione standard. nessuna delle alternative. entrambe le alternative proposte. Possiamo usare i punti centili per: nessuna delle due. calcolare un cut-off. entrambe. capire se un campione appartiene ad una popolazione. Il cut-off serve per: calcolare il coefficiente di correlazione. capire se un campione appartiene ad una popolazione. calcolare il coefficiente di regressione. Identificare i punteggi che si collocano sopra e sotto un dato numero. I test non parametrici: non implicano la stima di parametri statistici. implicano la stima di parametri statistici. nessuna delle precedenti. non sono mai equivalenti a test parametrici. Il test t di Wilcoxon è l'alternativa non parametrica del test: di Bravais-Pearson. t di Wilcoxon. di correlazione lineare. t di Student. Il test U di Mann-Whitney è l'alternativa non parametrica del test: di correlazione lineare. t di Student. t di Wilcoxon. di Bravais-Pearson. Quando uso il test t di Wilcoxon: posso rigettare H0 se: la somma dei ranghi positivi o la somma dei ranghi negativa è minore o uguale al valore critico tabulare. la somma dei ranghi positivi o la somma dei ranghi negativa è maggiore al valore critico tabulare. la somma delle medie è minore o uguale al valore critico tabulare. la somma delle medie è maggiore al valore critico tabulare. Nelle tabelle per calcolare il valore critico tabulare del mio test t di Wilcoxon posso testare: nessun tipo di ipotesi. solo ipotesi a due code. solo ipotesi ad una coda. ipotesi ad una e due code. Quando uso il test t di Wilcoxon: devo confrontare il coefficiente angolare con un valore critico tabulare. devo confrontare il coefficiente di correlazione con un valore critico tabulare. devo confrontare la somma dei ranghi (positivi e negativi) con un valore critico tabulare. devo confrontare il coefficiente di regressione con un valore critico tabulare. Per confrontare due medie di campioni dipendenti con test non parametrici useremo: il coefficiente di correlazione lineare di Bravais-Pearson. Il test U di Mann-Whitney. il test t di Wilcoxon. tutte le alternative. Per confrontare due medie di campioni indipendenti con test non parametrici useremo: il test t di Wilcoxon. Il test U di Mann-Whitney. il coefficiente di correlazione lineare di Bravais-Pearson. tutte le alternative. Tra i test non parametrici abbiamo: entrambi. Test di conformità. nessuna delle precedenti. Test equivalenti di test parametrici. Applichiamo statistiche non parametriche quando: il campione supera le 30 unità. non si assume l'ipotesi che i dati provengano da una popolazione normale o gaussiana. si assume l'ipotesi che i dati provengano da una popolazione normale o gaussiana. c'è indipendenza fra media e varianza. |





