option
Questions
ayuda
daypo
search.php

ERASED TEST, YOU MAY BE INTERESTED ON PSICOMETRIA A-K PEDROLI DAYPO UNICO solo corrette

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
PSICOMETRIA A-K PEDROLI DAYPO UNICO solo corrette

Description:
PSICOMETRIA A-K PEDROLI DAYPO UNICO solo corrette

Author:
AVATAR
Simox
Other tests from this author

Creation Date: 14/02/2025

Category: Others

Number of questions: 363
Share the Test:
New CommentNuevo Comentario
No comments about this test.
Content:
I metodi qualitativi: x non fanno ricorso alla quantificazione.
L'intervista non strutturata si caratterizza per: x l'assenza di domande predeterminate.
03. L'intervista strutturata si caratterizza per: una rigorosa predeterminazione delle domande e dell'ordine di somministrazione x.
L'intervista semistrutturata si caratterizza per: una certa flessibilità nelle domande e nell'ordine di somministrazione x.
Durante l'osservazione a distanza il ricercatore: raccoglie solo resoconti da chi ha partecipato alla situazione da indagare x.
L'osservazione a distanza: permette di raccogliere informazioni sul comportamento dei soggetti senza interferire con essi x.
Durante l'osservazione a distanza: il ricercatore non guida il comportamento dei soggetti x.
Il focus group: è un gruppo all'interno del quale vengono discussi specifici argomenti di interesse x.
Il moderatore di un focus group: propone uno specifico argomento da discutere x.
Nella ricerca quantitativa l'obiettivo generale è quello di: tutte le alternative sono corrette x.
Nella ricerca qualitativa l'obiettivo generale è quello di: esplorare e descrivere i fenomeni x.
I metodi di ricerca misti comprendono: metodi qualitativi e quantitativi x.
I metodi qualitativi: sono molto usati nella ricerca psicologica x.
L'intervista può essere: non struttura, strutturata, semistrutturata x.
Le variabili psicologiche sono anche dette: latenti z.
Le grandezze intensive sono: misurabili indirettamente x.
Le variabili latenti: non sono direttamente osservabili z.
Le grandezze estensive sono: direttamente misurabili x.
Una misura si dice fondamentale quando: consente di compiere le operazioni di addizione e sottrazione x.
I valori di riferimento nella misurazione si basano su: le caratteristiche di una popolazione di riferimento x.
I valori di riferimento nella misurazione: non possono essere arbitrariamente stabiliti dal ricercatore x.
Le variabili manifeste: sono direttamente osservabili x.
Affinché ci possa essere una misura è necessario: un sistema di riferimento almeno bidimensionale x.
Quando misuriamo: rappresentiamo le proprietà degli oggetti e degli eventi tramite le proprietà del sistema numerico x.
Nella misurazione la relazione tra sistema empirico e numerico deve essere: univoca x.
Durante il processo di misurazione: facciamo corrispondere ad ogni valore empirico un valore numerico. x.
Misurare significa: assegnare valori numerici ad oggetti o eventi secondo delle regole x.
In psicologia per misurare è possibile usare: tutte le alternative sono corrette x.
Il sistema empirico comprende: l'insieme di «dati» raccolti e disponibile x.
Il sistema numerico fa riferimento: all'insieme di «valori» assegnati ai dati raccolti x.
Spesso, nel processo di misurazione di costrutti non osservabili è necessario: far riferimento alle teorie preesistenti x.
Quando analizziamo il comportamento la durata indica: la quantità di tempo in cui un singolo comportamento viene mantenuto z.
L'osservazione senza misurazione: è sempre possibile x.
Quando analizziamo il comportamento la frequenza indica: il numero delle volte in cui si presenta un determinato evento x .
Quando analizziamo il comportamento la latenza indica: l'intervallo di tempo che intercorre tra la presentazione di uno stimolo e la risposta ad esso x.
Il comportamento può essere misurato usando: Latenza, Frequenza, Durata e Intensità x.
L'osservazione del comportamento ha come obiettivo: quantificare le osservazioni del comportamento oggetto di studio d.
Quando misuriamo un costrutto psicologico: possiamo scegliere tra diverse possibili misure x.
Nella procedura di campionamento casuale stratificato: La popolazione viene suddivisa arbitrariamente in gruppi più piccoli, sulla base di un certo criterio e su questi sottogruppi vengono svolte le procedure di campionamento casuale x.
Nel campionamento casuale senza reinserimento: il soggetto estratto della popolazione non viene reinserito prima dell'estrazione successiva x.
Nel campionamento casuale con reinserimento: il soggetto estratto della popolazione viene reinserito prima dell'estrazione successiva s.
Il campione dovrebbe essere: rappresentativo della popolazione x.
Nella procedura di campionamento ad hoc: Si selezionano solo soggetti volontari x.
Il campionamento casuale: può essere fatto con o senza reinserimento x.
Nella procedura di campionamento casuale: Ogni elemento della popolazione ha la stessa probabilità di formare il campione x.
Con il termine campione intendiamo: un piccolo insieme di eventi tratto dalla popolazione x.
Con il termine popolazione intendiamo: tutti gli eventi di interesse cui si rivolge lo sperimentatore x.
Il campionamento comprende: le modalità che il ricercatore adotta per individuare i soggetti che prenderanno parte all'esperimento z.
Una variabile può essere considerata come: la proprietà che è stata misurata rispetto a un evento reale x.
Uno strumento di misura accurato: misura in modo preciso il costrutto indagato x.
Uno strumento di misura affidabile: misura il costrutto per cui è stato progettato x.
Uno strumento di misura dovrebbe essere: entrambi s.
Misurare permette di: definire una corrispondenza tra un sistema empirico a un sistema numerico x.
Il processo di misurazione nella costruzione di una variabile prevede: il passaggio dalla variabile al valore s.
Il processo di operazionalizzazione nella costruzione di una variabile prevede: il passaggio dal significato alla variabile x.
Il processo di definizione nella costruzione di una variabile prevede: il passaggio dal costrutto al significato x.
Il passaggio dal costrutto al significato di una variabile viene identificato come: definizione x.
Il passaggio dalla variabile ai valori numerici viene identificato come: misurazione x.
Il passaggio dal significato alla variabile viene identificato come: operazionalizzazione x.
Le costanti devono: assumere un solo valore x.
Le variabili devono: assumere più valori s.
Nella scala ordinale i numeri rappresentano: solo una relazione d'ordine tra le quantità d.
Una variabile qualitativa può essere: Ordinale e nominale x.
Le costanti: non vengono analizzate durante una ricerca x.
In ricerche diverse una stessa caratteristica può essere: entrambe x.
Una variabile quantitativa può essere: A rapporti e ad intervalli equivalenti x.
Nella scala nominale i numeri rappresentano: etichette con nomi diversi d.
La variabile "Tipo di alloggio" può essere definita: nominale s.
La variabile "indosso/non indosso lo smalto" può essere definita: nominale x.
La variabile "classifica della gara di sci" può essere definita : ordinale x.
Le operazioni possibili sulla scala ordinale sono: entrambe x.
Le operazioni possibili sulla scala nominale sono: uguaglianza / disuguaglianza d.
In una scala ad intervalli equivalenti: non è presente uno zero assoluto s.
La variabile "numero di abitanti del centro abitato" può essere definita : a rapporti s.
La variabile "Ore settimanali dedicate allo studio" può essere definita : a rapporti s.
Usando variabili quantitative è possibile: svolgere operazioni matematiche d.
La variabile «punteggio ad un test di ansia» può essere definita : a intervalli z.
Con variabili su scala ad intervalli equivalenti: posso sommare e sottrarre i valori che la variabile assume s.
In una scala a rapporti equivalenti: è presente uno zero assoluto x.
I risultati della statistica descrittiva vengono presentati usando: entrambi s.
La statistica descrittiva è applicabile a variabili: entrambe d.
I risultati emersi dalle analisi descrittive del campione: non permettono di fare inferenze sulla popolazione d.
La statistica descrittiva è quella che si propone come scopo: descrivere e trovare degli indici di sintesi del campione s.
Qual è la frequenza assoluta del numero 7 nella seguente distribuzione 4, 6, 7, 5, 3, 5, 5, 7, 9, 5, 7. 3 s.
La frequenza è: il numero di volte in cui si presenta un determinato "evento" o modalità s.
Qual è la frequenza assoluta del numero 9 nella seguente distribuzione 4, 6, 9, 7, 5, 3, 5, 5, 7, 9, 5. 2 z.
Solitamente si calcolano le frequenze per: ogni possibile modalità di risposta z.
Le modalità sono: valori numerici o gli attributi che un carattere può assumere a.
La somma delle frequenze assolute: deve essere pari alla numerosità del campione a.
Le frequenze assolute e quelle relative: sono una diversa espressione dello stesso valore s.
Le frequenze relative si calcolano: trasformando il valore assoluto in percentuale s.
Qual è la frequenza assoluta del numero 2 nella seguente distribuzione 4, 6, 2, 7, 5, 2, 3, 5, 2, 7, 9, 5. 3 s.
Qual è la frequenza assoluta del numero 7 nella seguente distribuzione 4, 6, 7, 5, 3, 5, 2, 7, 9, 5. 2 s.
Le righe di una tabella di frequenza rappresentano: le varie modalità s.
La somma delle frequenze relative: deve essere pari a cento s.
Le colonne di una tabella di frequenza: le varie tipologie di frequenze calcolate w.
Le classi usate per calcolare le frequenze devono essere: disgiunte, esaustive, chiuse a destra d.
Per la variabile "punteggio ad un test di ansia" posso calcolare: entrambe le alternative d.
Per la variabile "genere" posso calcolare: le frequenze assolute d.
Le frequenze cumulate non dovrebbero essere calcolate: per variabili nominali s.
Le frequenze cumulate vengono calcolate a partire da: entrambe s.
Le frequenze cumulate sono: la somma delle frequenze di una categoria e delle precedenti s.
Le frequenze cumulate possono essere calcolate anche su dati: organizzati in classi a.
In un grafico a barre, le barre: rappresentano i dati s.
L'unità di misura dei dati in un grafico fa parte: degli elementi strutturali d.
Gli elementi decorativi di un grafico: non sono legati ai dati e.
I grafici possono includere: tutte le alternative d.
Gli elementi strutturali di un grafico: consentono la comprensione dei dati d.
In una tabella di contingenza le frequenze marginali sono: le frequenze per ciascuna riga o colonna d.
Le tabelle di contingenza servono per condurre: un'analisi bivariata s.
Nelle celle interne di una tabella di contingenza sono rappresentate: le frequenze congiunte d.
Nelle ultime righe e colonne di una tabella di contingenza sono rappresentate: le frequenze marginali s.
Le tabelle di contingenza possono essere fatte usando: entrambe s.
Le etichette degli assi in un grafico fanno parte: degli elementi strutturali s.
Le tabelle di contingenza possono essere fatte usando: entrambe d.
La mediana è: La misura che occupa la posizione centrale in un campione di dati disposti in ordine crescente in base al loro valore d.
La mediana rappresenta un caso particolare di: quantile d.
Qual è la moda della seguente distribuzione di punteggi ad una prova di matematica: 4, 6, 2, 7, 5, 2, 3, 5, 2, 7, 9, 5, 7, 7. 7 d.
Gli indici di tendenza centrale sono: statistiche che permettono di sintetizzare un insieme di misure tramite un unico valore "rappresentativo" x.
La moda può essere definita come: La classe che compare con frequenza più alta all'interno della distribuzione d.
La mediana permette: di dividere a metà il campione d.
I decili suddividono la distribuzione: In 10 parti uguali x.
La differenza interquartile si ottiene: Calcolando la differenza tra il terzo e il primo quartile x.
I quantili non possono essere calcolati: a livello di scala nominale d.
I quantili si riferiscono ad una suddivisione in parti uguali dei dati ordinati d.
L'indice di tendenza centrale più usato con variabili qualitative è: la moda s.
Sto analizzando i punteggi ad un test di memoria dei pazienti visti il mese scorso, come indice di tendenza centrale posso usare: tutte le alternative d.
La media aritmetica di un insieme di dati è: il rapporto tra la somma di tutte le misure ottenute e il numero delle misure effettuate d.
La media ponderata di un insieme di dati è: il rapporto tra la somma, moltiplicata per la frequenza, di tutte le misure ottenute e la somma di tutte le frequenze x.
Come indice di tendenza centrale, a livello di scala nominale, possiamo usare: la moda d.
Sto analizzando il colore degli occhi degli studenti della mia classse, come indice di tendenza centrale posso usare: la moda x.
Gli indici di dispersione o variabilità: permettono di descrivere quantitativamente la dispersione rispetto al valore di tendenza centrale x.
Il range o campo di variazione è: l'ampiezza dei valori compresa tra il valore massimo e il valore minimo x.
Il range si ottiene: sottraendo la prima modalità all'ultima della serie ordinata x.
Il range si ottiene calcolando: la differenza tra l'ultima e la prima modalità della serie ordinata x.
La differenza Interquartile: È data dalla differenza tra il terzo e il primo quartile s.
La media aritmetica degli scarti di un valore dalla media della distribuzione è: uguale a zero s.
La Varianza è data da: la somma degli scarti dalla media elevati al quadrato divisi per il totale delle osservazioni x.
I quartili suddividono la distribuzione : in 4 parti uguali c.
La deviazione standard o scarto quadratico medio è: La radice quadrata della varianza x.
Come indice di variabilità, a livello di scala ordinale, possiamo usare: il range x.
L'indice di variabilità più usato con variabili qualitative è: nessuna delle precedenti c.
La deviazione standard indica: di quanto, mediamente, i dati si discostano dalla media d.
La deviazione standard o scarto quadratico medio rappresenta: la variabilità assoluta c.
Lo scostamento semplice medio: è la media aritmetica dei valori assoluti degli scarti delle x da un valore medio x.
Lo scostamento semplice medio può essere calcolato usando: media aritmetica o mediana x.
La differenza media può essere: entrambe le alternative x.
La differenza media permette: di calcolare la media delle differenze in valore assoluto fra tutte le possibili coppie di valori x.
Lo studio della concentrazione e utile per: vedere se il fenomeno è equamente distribuito fra tutte le unità statistiche x.
La concentrazione si calcola usando: il metodo grafico di Lorenz d.
Basandosi sulla probabilità è possibile generalizzare i risultati ottenuti dal campione alla popolazione x.
Per la concezione classica della probabilità possono esistere degli eventi: entrambe le alternative proposte x.
La concezione logicistica di probabilità: considera la probabilità di un evento una relazione logica fra l'evento stesso ed un insieme di conoscenze di cui si dispone x.
Per la concezione classica della probabilità questa può assumere valori che vanno da: 0 e 1 x.
Per la concezione classica della probabilità questa: è il rapporto fra il numero m dei casi favorevoli (al verificarsi di E) ed il numero n dei casi possibili x.
La concezione assiomatica di probabilità: parte da due concetti primitivi (evento e probabilità) e da alcuni assiomi d.
La concezione soggettiva di probabilità: valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al verificarsi di un evento x.
La concezione frequentista della probabilità si basa: su entrambe le alternative proposte x.
Il calcolo delle probabilità è: uno strumento razionale che permette di prendere decisioni in condizioni di incertezza s.
Secondo la teoria frequentista la probabilità di una certa caratteristica: è la frequenza relativa in un numero di prove ritenuto "sufficientemente" elevato. s.
Secondo la teoria soggettiva della probabilità: la probabilità associata a una certa affermazione misura il grado di credenza attribuito all'affermazione stessa da una certa persona x.
I concetti primitivi del calcolo della probabilità sono: Tutte le alternative sono corrette d.
Nell'impostazione assiomica del calcolo delle probabilità una prova è definita come: un esperimento soggetto a incertezza d.
Nella teoria frequentista se la frequenza di un evento è pari a uno possiamo dire che: si è verificato in ogni osservazione s.
Nella teoria frequentista se la frequenza di un evento è pari a zero possiamo dire che: non si è verificato in nessuna delle n prove effettuate s.
Nell'impostazione assiomica del calcolo delle probabilità un evento è definito come: uno dei possibili risultati della prova s.
Legge empirica del caso dice che: fatta un'ampia serie di prove la frequenza tende ad assumere valori prossimi alla probabilità dell'evento d.
Per la concezione soggettiva la probabilità è rappresentata da: numero reale compreso fra 0 e 1 s.
Nell'impostazione assiomica del calcolo delle probabilità una probabilità è definita come: un numero associato al presentarsi di un evento d.
Quando voglio calcolare la probabilità che lanciando un dado esca 3 sapendo che è uscito un numero dispari sto calcolando: la probabilità condizionata d.
Quando si vuol calcolare la probabilità di prendere ad un esame e di vincere una schedina prenderò in considerazione: la probabilità composta s.
La probabilità composta di tre eventi indipendenti con probabilità pari a 1/4, 1/3 e 1/2 è pari a: 1/24 s.
. Il concetto di probabilità composta deriva da quello di: probabilità condizionata x.
Considerando il lancio di un dado, la probabilità che esca 3 sapendo che è uscito un numero disperi è uguale a 1/3 s.
La probabilità composta di due eventi indipendenti è pari a: la probabilità di uno moltiplicata per la probabilità dell'altro s.
La probabilità che due eventi si verifichino contemporaneamente è pari a: la probabilità di uno dei due eventi moltiplicata per la probabilità dell'altro evento condizionato al verificarsi del primo x.
La probabilità di un evento A condizionato a B può essere: Tutte le alternative sono corrette x.
Quando consideriamo la probabilità condizionata di un evento "A": Se B non si verifica, l'evento A condizionato a B non è definito x.
La probabilità condizionata si definisce come: la probabilità del verificarsi di A nell'ipotesi che B si sia verificato x.
In una distribuzione di probabilità uniforme: ogni elemento di un insieme finito ha lo stesso valore di probabilità x.
Un esempio di distribuzione di probabilità uniforme: il lancio di un dado x.
Nelle distribuzioni di probabilità continue la variabile viene espressa su un scala continua z.
La distribuzione di Poisson esprime le probabilità per: eventi che si verificano successivamente ed indipendentemente in un intervallo di tempo s.
La probabilità di una serie di estrazioni da un mazzo di carte senza reinserimento si distribuisce seguendo: la distribuzione ipergeometrica x.
La distribuzione di probabilità di Poisson prende in considerazione l'indice lambda che rappresenta: la media di eventi che si verificano in un dato lasso di tempo d.
La distribuzione binomiale riguarda: eventi il cui esito può essere solo un successo o un insuccesso x.
I valori che contraddistinguono una distribuzione di probabilità sono: media e deviazione standard s.
Le distribuzioni di probabilità possono essere: continue o discrete s.
Una distribuzione di probabilità è: un modello matematico che collega i valori di una variabile alle probabilità che possano essere osservati s.
Nelle distribuzioni di probabilità discrete: la variabile viene misurata con valori numerici interi d.
La legge dei grandi numeri dice che: la media di un numero sufficiente di campioni è sufficientemente vicina alla media reale d.
La distribuzione normale fa riferimento a variabili: continue s.
Il punto più alto di una curva normale viene definito: punto di massimo d.
Quando indichiamo una distribuzione normale riportiamo i valori di media e deviazione standard d.
Moda, mediana e media non coincidono nella distribuzione di probabilità: di Poisson x.
Moda, mediana e media coincidono nella distribuzione di probabilità: normale x.
La deviazione standard dalla media rappresenta, nella curva normale: i punti di flesso c.
Due distribuzioni normali con medie diverse: avranno una diversa posizione sull'asse delle x x.
Due distribuzioni normali con diverse deviazioni standard: avranno diversi punti di flesso d.
Nella distribuzione normale moda, mediana e media rappresentano: il punto più alto della distribuzione d.
Usando la distribuzione normale standardizzata possiamo: tutte le alternative sono corrette d.
La curva normale varia tra: più e meno infinito s.
La distribuzione normale standardizzata: ha media 0 e deviazione standard 1 s.
L'area compresa fra la curva normale e l'asse delle x equivale ad una probabilità pari a: 1 x.
L'area compresa tra più e meno due deviazioni standard in una curva normale standardizzata è pari al: 95.45% x.
L'area compresa tra più e meno tre deviazioni standard in una curva normale standardizzata è pari al: 99.73% d.
L'area compresa tra più e meno una deviazione standard in una curva normale standardizzata è pari al: 68.26% x.
Le code della distribuzione normale: non toccano mai l'asse delle x x.
Per la distribuzione normale standardizzata, usando delle specifiche tavole è possibile calcolare: l'area sottesa alla curva tra l'asse delle x e un dato valore d.
Il calcolo delle probabilità è: uno strumento razionale che permette di prendere decisioni in condizioni di incertezza d.
I punti z indicano quante deviazioni standard il punteggio si discosta dalla media d.
I punti z fanno riferimento: alla curva normale standardizzata d.
i punti z vengono calcolati usando: media e deviazione standard d.
Lo scopo della standardizzazione dei punteggi grezzi è: rendere dati diversi direttamente confrontabili s.
Il campionamento può essere: entrambi s.
Nel campionamento casuale la selezione può essere fatta: entrambe le alternative a.
Quando applichiamo la selezione senza ripetizione al campionamento casuale: la probabilità che ogni elemento venga estratto cambia ad ogni estrazione x.
Il campionamento casuale semplice ha il limite di: richiedere elevati costi e tempi di realizzazione x.
Il campionamento casuale può essere applicato se: entrambe le alternative d.
Nel campionamento probabilistico ogni unità della popolazione ha la stessa probabilità di fare parte del campione x.
L'obiettivo del campionamento è: ottenere un campione rappresentativo della popolazione z.
Fare esperimenti sulla popolazione ha lo svantaggio di: richiedere tempi e costi molto elevati z.
La verifica delle ipotesi permette: basandosi sul campione, di decidere se l'ipotesi fatta è accettabile anche a livello della popolazione x.
La stima campionaria permette: di stimare dal campione alcuni parametri della popolazione d.
L'inferenza statistica può riguardare: entrambe le alternative s.
L'inferenza statistica può essere definita come il procedimento che permette di: analizzare il campione per ottenere conclusioni circa la popolazione d.
Usando l'inferenza statistica può possiamo: usare i dati ottenuti dal campione per avere informazioni sulla popolazione x.
Il campionamento probabilistico comprende: il campionamento stratificato e a più stadi x.
Stratificare una popolazione vuol dire: dividerla in sottopopolazioni c.
Nel campionamento stratificato l'estrazione casuale si applica: ad ogni sottogruppo della popolazione c.
Il campionamento stratificato si applica: a popolazioni molto ampie c.
Il campionamento a più stadi prevede: la divisione della popolazione in stadi sempre più piccoli c.
Nel campionamento a più stadi è necessario che le differenze tra i gruppi primari siano limitate d.
Durante le procedure di campionamento sistematico la popolazione: viene ordinata e numerata viene selezionare e le unità sono estratte ad intervalli regolari x.
Il campionamento sistematico permette di: ordinare e numerare una popolazione e selezionare ad intervalli regolari le unità d.
Nel campionamento non probabilistico a scelta ragionata: vengono scelti elementi che rispondono a specifiche esigenze x.
Nel campionamento non probabilistico: non è possibile conoscere la probabilità di inclusione nel campione di ogni unità x.
Nel campionamento sistematico il passo di campionamento è: il salto che si compie nella selezione tra 2 unità d.
Uno stimatore si dice distorto quando: la media calcolata sul campione è diversa dal corrispondente parametro della popolazione d.
Uno stimatore si dice corretto quando: la media di tutte le stime di tutti i campioni è uguale al parametro della popolazione d.
Uno stimatore si dice efficiente quando: è meno disperso attorno al valore del parametro d.
Uno stimatore si dice consistente quando: all'aumentare del campione aumenta la probabilità che il parametro stimato coincida con quello della popolazione x.
Più aumentiamo la numerosità del campione più la distribuzione della nostra variabile: si avvicinerà ad una distribuzione normale x.
Il parametro può essere definito con la lettera: theta x.
Il parametro è: una costante della popolazione x.
Lo stimatore è: una funzione delle variabili campionarie c.
La stima è: il valore della funzione delle variabili campionarie x.
Uno stimatore dovrebbe essere: corretto, efficiente e consistente x.
L'errore medio di campionamento si calcola a partire: dalla varianza corretta x.
Ho stimato un parametro della popolazione da un campione di 72 casi e da uno di 270 , dove avremo il minor l'errore medio di campionamento? campione di 270 casi s.
Per ridurre l'errore medio di campionamento è necessario: aumentare il campione s.
Quando indichiamo la stima puntuale di un parametro nei risultati del nostro esperimento indicheremo anche: l'errore di campionamento medio s.
La stima puntuale può essere calcolata: senza conoscere informazioni sulla popolazione s.
Possiamo parlare di stime di intervallo di un parametro quando: si determina un intervallo che contiene il parametro s.
L'errore medio di campionamento indica: l'ampiezza dell'errore relativo all'uso del campione per stimare un parametro della popolazione x .
Possiamo parlare di stime puntuali di un parametro quando: la stima si esprime con un valore numerico preciso x.
La stima di un parametro della popolazione può essere: entrambe c.
I parametri della popolazione sono: costanti x.
Il livello di fiducia viene indicato con la lettera greca: alfa x.
La zona dell'intervallo di fiducia in cui è più probabile che il nostro valore ricada è definita come: "uno meno alfa" z.
L'errore medio di campionamento: viene stimato usando le varianze corrette dei campioni x.
Per stimare l'intervallo di una media è necessario decidere: il livello di fiducia x.
Per stimare l'intervallo di una media è necessario conoscere: la distribuzione della media campionaria intorno a µ x.
Quando stabiliamo un livello di fiducia pari a 0,95 per la stima a intervallo significa che su 100 medie di campioni 95 cadono nell'intervallo e 5 fuori x.
Quando stabiliamo un livello di fiducia pari a 0,99 per la stima a intervallo significa che: su 100 medie di campioni 99 cadono nell'intervallo e 1 cade fuori s.
Il teorema del limite centrale afferma che: le medie di campioni sufficientemente grandi sono distribuite normalmente s.
Solitamente le ipotesi statistiche vengono verificate usando: il campione s.
Il procedimento della verifica delle ipotesi può essere entrambi s.
Il procedimento di verifica delle ipotesi parametrico si applica quando: è nota la distribuzione di probabilità d.
H0 rappresenta: L'ipotesi nulla x.
Il procedimento di verifica delle ipotesi non parametrico si applica quando non si conosce la distribuzione di probabilità x.
La verifica delle ipotesi si basa su una decisione tra due ipotesi definite dal ricercatore: Ipotesi nulla (H0) e ipotesi alternativa (H1) d.
L'ipotesi nulla è anche detta: ipotesi dell'uguaglianza o delle non differenze d.
L'ipotesi alternativa: è accettata quando viene falsificata l'ipotesi nulla d.
L'ipotesi nulla e ipotesi alternativa entrambe le alternative proposte sono corrette s.
La regione di accettazione rappresenta: la probabilità di accettare l'ipotesi nulla d.
La regione di rifiuto rappresenta: la probabilità di accettare l'ipotesi alternativa c.
H1 rappresenta: L'ipotesi alternativa c.
L'errore di seconda specie si ha quando: si accetta l'ipotesi nulla quando è falsa c.
L'errore di prima specie si ha quando: si rifiuta l'ipotesi nulla quando è vera x.
Quando accettiamo l'ipotesi nulla: rifiutiamo automaticamente l'ipotesi alternativa x.
Quando rifiutiamo l'ipotesi nulla: accettiamo automaticamente l'ipotesi alternativa c.
Per ridurre sia l'errore di prima che di seconda specie dobbiamo: aumentare la dimensione del campione x.
L'ipotesi alternativa permette di ipotizzare che la stima campionaria: nessuna delle due x.
Quando l'ipotesi alternativa afferma che i due valori sono diversi applicheremo: un test bilaterale x.
Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia minore del valore della popolazione useremo: test unilaterale sinistro x.
Quando l'ipotesi alternativa afferma che il valore stimato dal nostro campione sia maggiore del valore della popolazione useremo: test unilaterale destro x.
Quando non conosciamo la varianza della popolazione con cui vogliamo confrontare il nostro campione con meno di 30 soggetti: la stimeremo usando quella del campione x.
Nella distribuzione "t di student" la curva cambia in base alla numerosità x.
. Dalle tavole della t di student otteniamo: Il valore critico di t che fa riferimento alla distribuzione teorica x.
Quando usiamo il test t per capire se un campione appartiene ad una popolazione: non conosciamo la varianza della popolazione x.
I gradi di libertà della t di student si calcolano: N-1 x.
Nella distribuzione "t di student" la numerosità del campione: ci permette di calcolare i gradi di libertà x.
Nelle tabelle per calcolare il valore critico del mio test t di Student posso testare: ipotesi ad una e due code x.
Le tavole della t di student ci permettono di verificare: sia ipotesi monodirezionali che bidirezionali x.
. Quando ho un campione con meno di 30 soggetti i dati seguono la distribuzione: t di student x.
Se il valore calcolato di t è maggiore del valore critico di t: rifiuterò l'ipotesi nulla x.
Quando voglio verificare se il mio campione, con meno di 30 soggetti, appartiene alla popolazione applicherò: t test s.
Se il valore critico di t è minore del valore calcolato di t: rifiuterò l'ipotesi nulla s.
Se il valore critico di t è maggiore del valore calcolato di t: accetterò l'ipotesi nulla d.
Quando il chi-quadrato «calcolato» è maggiore del chi-quadrato «critico»: rifiutiamo H0 x.
Quando il chi-quadrato «calcolato» è minore del chi-quadrato «critico»: accettiamo H0 x.
Quando il chi-quadrato «critico» è minore del chi-quadrato «calcolato»: rifiutiamo H0 s.
I gradi di libertà del chi-quadrato si calcolano: (numero di righe - 1) x (numero di colonne - 1) s.
Per verificare la nostra ipotesi dobbiamo confrontare i valori del chi-quadrato detti: "calcolato" e "critico" d.
Il test del chi-quadrato non può essere usato: con variabili a rapporti equivalenti d.
Per calcolare gli indici necessari per il test chi-quadrato i dati devono essere organizzati: in tabelle di contingenza d.
Il test del chi-quadrato permette: di verificare le differenze tra valori osservati e valori teorici d.
La retta di regressione è rappresentata con quale equazione? y = a + bx s.
L'intercetta è rappresentata dalla lettera: a ssssd.
La retta di regressione può essere calcolata usando: il metodo dei minimi quadrati z.
Quando il coefficiente di regressione è pari a zero la retta: sarà parallele agli assi cartesiani x.
Il coefficiente di regressione indica: entrambe le alternative c.
Per rappresentare i valori durante l'analisi della regressione possiamo usare entrambe le alternative c.
Il coefficiente di regressione nell'equazione della retta è rappresentato dalla lettera b cccc.
La regressione lineare può essere rappresentata da: una curva una retta una linea spezzata una parabola.
Quando analizziamo il legame tra due variabili queste possono derivare: entrambe le alternative s.
La correlazione fra le due variabili esprime: l'intensità del legame s.
La funzione di regressione più usata è quella: lineare d.
La funzione di regressione permette di: valutare il valore della variabile dipendente al variare della variabile indipendente x.
La correlazione ci permette di: misurare la forza o l'intensità del legame fra due variabili x.
La covarianza è: il valore medio del prodotto degli scarti corrispondenti di X e di Y x.
l coefficiente di correlazione lineare ci dice come le due variabili variano congiuntamente x.
Si ha una correlazione inversa quando il coefficiente di correlazione lineare di Bravais-Pearson: è minore di 0 d.
Per analizzare la variabilità congiunta di due variabili usiamo: la covarianza d.
Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a zero: non esiste correlazione lineare c.
Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a -1: correlazione perfetta inversa c.
. Se il coefficiente di correlazione lineare di Bravais-Pearson è uguale a +1: correlazione perfetta diretta c.
Il coefficiente di correlazione lineare di Bravais-Pearson può variare fra -1 e +1 x.
Si ha una correlazione diretta quando il coefficiente di correlazione lineare di Bravais-Pearson: è maggiore di 0 c.
. Il coefficiente di correlazione lineare di Bravais-Pearson rappresenta: la covarianza normalizzata s.
Per analizzare la correlazione solitamente si usa: il coefficiente di correlazione lineare di Bravais-Pearson s.
La covarianza varia: fra «meno infinito» e «più infinito» d.
La covarianza può essere: positiva, negativa o nulla c.
Quando il coefficiente di correlazione r è uguale a 0 si parla di: assenza di correlazione x.
La varianza non spiegata può dipendere: entrambe d.
La varianza spiegata è: la variabilità della Y dovuta alla variabile X d.
La varianza non spiegata è: la variabilità di Y che non dipende dalla variabile X d.
La varianza totale è data da: entrambe d.
Il coefficiente di indeterminazione ci permette di definire: la varianza di Y che non dipende dalla variabile X d.
Il coefficiente di determinazione ci permette di definire: la varianza dovuta alla dipendenza lineare fra Y e X d.
Il coefficiente di determinazione è dato da: "r diviso due" alfa "x" medio "r" al quadrato.
Il coefficiente di indeterminazione è dato da: 1-"r" al quadrato d.
Quando voglio analizzare se due variabili rilevate su un solo campione sono tra loro correlate le organizzerò: in una tabella a doppia entrata d.
Una varabile A è indipendente da una variabile B quando: per ogni valore di A le frequenze relative non dipendono dai valori di B c.
Il coefficiente b1 è detto: coefficiente di regressione di Y su X z.
. Quando analizziamo la dipendenza tra due variabili possiamo rappresentarle attraverso: linee di regressione s.
Nella linea di regressione di y rispetto a x i punti vengono rappresentati da ogni valore di x e: la media ponderata dei valori della Y relativi ad ogni livello di x d.
Nella linea di regressione di x rispetto a y i punti vengono rappresentati da ogni valore di x e: la media ponderata dei valori della x relativi ad ogni livello di y d.
Usiamo la correlazione lineare si analizza quando, date due variabili x e Y: vogliamo capire se c'è un legame tra le due variabili s.
Il coefficiente di correlazione lineare di Bravais-Pearson può essere calcolato usando: entrambe le alternative proposte d.
. Possiamo usare i punti centili per: calcolare un cut-off d.
. Il cut-off serve per: Identificare i punteggi che si collocano sopra e sotto un dato numero d.
I test non parametrici: non implicano la stima di parametri statistici x.
Il test t di Wilcoxon è l'alternativa non parametrica del test: t di Student x.
Il test U di Mann-Whitney è l'alternativa non parametrica del test: t di Student c.
Quando uso il test t di Wilcoxon: posso rigettare H0 se: la somma dei ranghi positivi o la somma dei ranghi negativa è minore o uguale al valore critico tabulare x.
Nelle tabelle per calcolare il valore critico tabulare del mio test t di Wilcoxon posso testare: ipotesi ad una e due code x.
Quando uso il test t di Wilcoxon: devo confrontare la somma dei ranghi (positivi e negativi) con un valore critico tabulare d.
Per confrontare due medie di campioni dipendenti con test non parametrici useremo: il test t di Wilcoxon d.
Per confrontare due medie di campioni indipendenti con test non parametrici useremo: Il test U di Mann-Whitney d.
Tra i test non parametrici abbiamo: entrambi x.
Applichiamo statistiche non parametriche quando: non si assume l'ipotesi che i dati provengano da una popolazione normale o gaussiana z.
Report abuse