option
Questions
ayuda
daypo
search.php

Psicometria 2

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
Psicometria 2

Description:
quiz esame

Creation Date: 2026/04/22

Category: Others

Number of questions: 60

Rating:(0)
Share the Test:
Nuevo ComentarioNuevo Comentario
New Comment
NO RECORDS
Content:

L'effetto di X su Y mediato da M in una mediazione indica: che l'effetto di X aumenta se si misura M. che l'effetto di X passa per il cambiamento di M. che l'effetto di X cambia per i diversi valori di M. che l'effetto di X non è importante.

il grafico a dispersione rappresenta. due variabili correlate tra loro con una r=.80. due variabili correlate tra loro con una r=.40. i risultati ad una variabile di tre gruppi diversi (0; 0.5; 1). due variabili non correlate tra loro.

L'assunzione di normalità riguarda. la variabile dipendente del modello lineare. i residui dei test non parametrici. i ranghi della variabile dipendente di un test non parametrico. i residui del modello lineare.

Indicare quali di queste affermazioni relative all'estrazione fattoriale in una ACP NON è corretta. la varianza spiegata dei fattori estratti è sempre decrescente. la soluzione iniziale tipicamente è complessa. La comanalità iniziale da analizzare sarà uguale alla varianza condivisa dalle variabili. qualcuno degli autovalori sarà superiore ad 1.

Sulla base di questo scree-plot, quanti fattori si dovrebbero estrarre?. 2. 4. 1. 3.

quale assunzione non è necessario testare nell'ANOVA con variabili indipendenti categoriche?. bilateralità. linearità. omoschedasticità. normalità.

indica quale dei seguenti indici esprime la relazione lineare più forte fra due variabili. r-quadro=-.30. r-quadro=.25. r=.6. r=-.7.

Nel calcolo della somma dei quadrati di errore, gli scarti tra i valori osservati e la media sono elevati al quadrato, perché?. perché agli statistici i numeri negativi non piacciono. perché altrimenti gli errori con lo stesso valore assoluto e segno opposto se si annullerebbero. perché la media è sempre un valore positivo. perché in questo modo gli errori diventano più grandi rispetto al valore atteso.

La covarianza è. una misura di associazione tra due variabili continue. nessuna delle precedenti. una tecnica per misurare l'associazione tra variabili nominali. un sinonimo di correlazione.

In un modello statistico è inevitabilmente presente. una componente residua. una componente di errore. una componente dati dallo scatto tra il valore reale e il valore atteso Dal modello. tutte le alternative sono corrette.

In una analisi fattoriale, quale caratteristica ha un item che correla poco con tutti i fattori. alto autovalore. alta comunalità. basso autovalore. bassa comunalità.

Quando ha senso condurre i test post-hoc?. sempre. quando l'effetto principale non è significativo. quando l'effetto principale è significativo. quando l'effetto principale è significativo ed ha più di un grado di libertà.

Qual è la proprietà psicometrica che indica quanto coerente è una misura?. dimensionalità. attendibilità. discriminabilità. validità predittiva.

Nel diagramma rappresentante le varianze delle variabili X, W e Y (Y è la dipendente), cosa possiamo affermare dell'area "a"?. è parte della varianza unicamente spiegata da X. è parte della varianza unicamente spiegata da W. è parte della varianza che viene spiegata dal modello nel complesso. è parte della varianza che viene rimossa dal modello.

Per cosa è utile il test di Kolmogorv-Smirnov?. per testare l'assunzione di omoschedasticità. per testare l'assunzione di linearità. per testare l'assunzione di criticità. per testare l'assunzione di normalità.

Il quadrato del coefficiente di correlazione parziale in una regressione multipla (pr-quadro). indica l'effetto di una VI dopo aver rimosso tutta la variabilità spiegata dalle altre VI. indica l'effetto di una VI dopo aver rimosso la variabilità condivisa con altre VI. indica l'effetto di una VI nel predire tutta la variabilità della VD. indica l'effetto di una VI dopo aver rimosso la variabilità delle altre VI eccetto quella condivisa tra VI.

Quale delle seguenti non è un'assunzione della regressione?. significatività. linearità degli effetti. normalità degli errori. Omoschedasticità.

A cosa equivalgono i test non parametrici, per la maggior parte?. ai test di un modello lineare operati su variabili distribuite normalmente. Il test di un modello lineare operati su una trasformazione della variabile dipendente. ai test di un modello lineare operati sul logaritmo della variabile dipendente. ai test di un modello lineare operati sui ranghi delle variabili.

Quando è utile applicare una trasformazione ai dati?. Quando il risultato non è significativo. Sempre, ma dopo aver verificato le assunzioni del modello lineare. Quando sono violate le assunzioni del modello lineare. Quando il risultato è diverso da quello ipotizzato.

Il p-value. esprime la dimensione dell'effetto. calcola la probabilità di ottenere un certo valore sotto l'ipotesi alternativa. calcola la probabilità di ottenere un certo valore sotto l'ipotesi nulla. indica la probabilità di aver omesso un risultato significativo.

quando sono utili i test non parametrici. quando i residui del modello lineare non sono distribuiti normalmente. quando non abbiamo ipotesi specifiche sui risultati. quando le assunzioni del modello lineare sono rispettate. quando abbiamo variabili dipendenti categoriche.

In una regressione multipla, come possiamo confrontare il potere predittivo delle variabili indipendenti?. Confrontando i coefficienti B. Confrontando i residui con i valori predetti. Confrontando i coefficienti Beta. Osservando l'R-quadro.

Nel diagramma rappresentato come interpretiamo il path tra D e E?. Come l'effetto totale di D su E. Come l'effetto di D su E al netto di C. Come l'effetto mediato di D su E. Come l'effetto di D su E al netto di C, A e B.

Nella ANOVA, cosa aumenta all'aumentare della varianza delle medie dei gruppi, a parità del resto?. l'omoschedasticità degli effetti. la varianza di errore del modello. la linearità del modello. la varianza spiegata dal modello.

Come si ottiene l'effetto mediato totale di questo modello?. D*e. a*b. d*e+a*b. a*b+d*e+c'.

Quando non è consigliabile interpretare gli effetti principali in una ANOVA fattoriale?. quando l'interazione è significativa. in assenza di una interazione cross-over. In presenza di una interazione cross-over. in assenza di una interazione significativa.

In una regressione multipla, come è il coefficiente di correlazione parziale al quadrato associato ad una variabile indipendente?. uguale all'incremento dell'R-quadro dovuto alla variabile associata. uguale al coefficiente di correlazione parziale al quadrato associato alla variabile. uguale al quadrato del coefficiente beta associato alla variabile. uguale all'eta-quadro parziale associato a quella variabile.

Il coefficiente di regressione rappresenta. il cambiamento atteso nella variabile dipendente per un cambiamento di un’unità nella variabile indipendente. il cambiamento atteso nella variabile indipendente per un cambiamento di un’unità nella variabile dipendente. il cambiamento atteso nella variabile indipendente per un cambiamento di una varianza nella variabile dipendente. il cambiamento atteso nella variabile dipendente per un cambiamento di una varianza nella variabile indipendente.

Quale operazione preliminare è necessario fare prima di calcolare l'alpha di Cronbach di un insieme di variabili?. ricodificare le variabili per ottenere correlazioni positive tra di esse. eliminare le variabili con correlazioni negative con le altre variabili. eliminare la variabile con correlazione più bassa con le altre variabili. standardizzare le variabili per ottenere correlazioni positive tra di esse.

Per interpretare l'interazione significativa in una ANOVA fattoriale con due fattori a due livelli ciascuno. eseguo i test post-hoc corretti per confronti multipli. ignoro gli effetti principali indipendentemente dalla loro significatività. guardo se il trend della trend analysis è quadratico. utilizzo i grafici per capire come una variabile è condizionale rispetto all'altra.

Come si può calcolare l'attendibilità di più item su scala continua?. con Kappa di Cohen. con la z di Riemann. con alpha di Cronbach. con la correlazione di Pearson.

Quando sono utili i test post-hoc?. quando le assunzioni del modello lineare non sono rispettate. Quando abbiamo molti gruppi da confrontare. Quando abbiamo variabili dipendenti categoriche. quando non abbiamo ipotesi specifiche sui risultati.

Sulla base del grafico che rappresentate le medie di nazionalità e genere, quali effetti possiamo aspettarci?. un effetto di interazione e un effetto principale di genere. un effetto di interazione e due effetti principali. un effetto di interazione e un effetto principale di nazione. solo un effetto di interazione.

In una regressione multipla, quale coefficiente non è utile per confrontare il potere predittivo delle variabili indipendenti?. l'R-quadro. la correlazione parziale. l'eta-quadro. il beta.

Come si ottiene l'effetto mediato da per rischi?. a*b. D*e. d*e+a*b. d*e+c'.

Come si può calcolare l'attendibilità di due item categoriali (su scala nominale)?. con la correlazione di Pearson. con la z di Riemann. con alpha di Cronbach. con Kappa di Cohen.

In un istogramma. Sull'asse delle x sono presenti i valori che può assumere la variabile e su quello delle y le medie. Sull'asse delle x sono presenti i valori che può assumere la variabile e su quello delle y le frequenze. sull’asse delle x sono presenti le medie e su quello delle y i valori che può assumere la variabile. Sull'asse delle x sono presenti le frequenze e su quello delle y i valori che può assumere la variabile.

Quale indice della grandezza dell'effetto possiamo usare nell'ANOVA?. r-quadro parziale. beta. eta-quadro parziale. B.

L'indice R-quadro in una regressione lineare multipla. si calcola elevando al quadrato i coefficienti semiparziali delle VI. ci permette di comparare la significatività delle diverse VI. indica se le assunzioni del modello lineare sono rispettate. ci permette di quantificare quanto l'insieme delle VI predice la VD.

Quale è la proprietà psicometrica che indica quanto una misura effettivamente misura il costrutto latente?. consistenza. coerenza interna. attendibilità. validità.

La soglia di significatività (alpha) rappresenta. La probabilità di aver trovato un valore campionario per caso. la soglia di probabilità che il ricercatore impone per valutare la media campionaria. La soglia di probabilità che il ricercatore impone per valutazione il p-value associato alla statistica del test. la probabilità che l’evento studiato sia casuale.

Un modello statistico è?. una rappresentazione distorta di una relazione tra variabili. una rappresentazione efficiente di una relazione tra variabili. una rappresentazione sufficiente di una relazione tra variabili. tutte le alternative sono corrette.

Nell'analisi delle componenti principali la soluzione iniziale. nessuna delle precedenti. è sempre semplice. è sempre complessa. spiega il 100% della varianza considerando tutti i fattori con autovalore maggiore di 1.

Cosa indica, in una ANOVA fattoriale, un R-quadro diverso da zero?. Che gli effetti delle variabili indipendenti sono significativi. Che l'interazione tra le variabili indipendenti è significativa. Che la media dei gruppi definiti dalla combinazione delle variabili indipendenti sono diversi fra loro. Che le medie di almeno due gruppi definiti dalla combinazione delle variabili indipendenti sono diverse fra loro.

In una ANOVA con interazione, cosa indica l'Eta-quadro parziale dell'interazione?. la varianza spiegata dall'interazione in proporzione rispetto alla varianza di errore. La varianza spiegata dalle medie dei gruppi. la varianza spiegata dall'interazione in proporzione rispetto alla Varianza non spiegata dagli effetti principali. la varianza spiegata dall'interazione in proporzione rispetto alla varianza totale.

Una regressione lineare semplice misura. il grado di associazione tra due variabili. differenze significative tra gruppi. Come la variabile indipendente (VI) causa un cambiamento sulla variabile dipendente (VD). come la variabile dipendente (VD) causa un cambiamento sulla variabile indipendente (VI).

In una regressione multipla, come è il coefficiente di correlazione semi-parziale al quadrato associato ad una variabile indipendente?. uguale al coefficiente di correlazione parziale al quadrato associato alla variabile. uguale all'eta-quadro parziale associato a quella variabile. uguale al quadrato del coefficiente beta associato alla variabile. uguale all'incremento dell'R-quadro dovuto alla variabile associata.

L'intercetta della retta di regressione. rappresenta il valore della variabile dipendente quando la variabile indipendente è pari a zero. rappresenta il valore della variabile indipendente quando la variabile dipendente è pari a zero. rappresenta il valore della variabile dipendente quando la variabile indipendente è pari alla mediana. rappresenta il valore della variabile indipendente quando la variabile dipendente è pari alla mediana.

In un modello di mediazione con 3 variabili, una variabile esogena. corrisponde con la VI non mediatrice. media l'effetto tra VI e VD. nessuna delle precedenti. è una variabile esterna al modello che tengo in considerazione nel quadro teorico.

In una ANOVA ad una via, cosa indica un R-quadro non diverso da zero?. Che almeno due medie dei gruppi definiti dalla variabile indipendente sono diverse fra loro. Che le medie dei gruppi definiti dalla variabile indipendente sono diverse fra loro. Che almeno due medie dei gruppi definiti dalla variabile indipendente non sono differenti fra loro. che le medie dei gruppi definiti dalla variabile indipendente non sono diverse fra loro.

Quale statistica possiamo usare per vedere se l'insieme dei predittori di una regressione multipla predicono la variabile dipendente?. il coefficiente beta. il coefficiente B. L'indice R-quadro. il test di Mauchly.

Nella regressione multipla, quando si preferisce considerare il coefficiente di regressione non standardizzato rispetto a quello standardizzato?. Quando il coefficiente di regressione non standardizzato è maggiore di quello standardizzato. Quanto la variabile dipendente e quella indipendente hanno scala di Misura diverse. Quanto la scala di misura della variabile dipendente o di quella indipendente è interpretabile intuitivamente. Quanto la scala di misura della variabile dipendente e di quella indipendente sono interpretabili intuitivamente.

In una ANOVA, come viene chiamato l'effetto generale di una variabile indipendente categorica sulla dipendente?. principale. di interazione. diretto. indiretto.

In un test che confronta due medie, un p-value = .15. ci indica che due variabili sono diverse tra loro. nessuna delle alternative. ci suggerisce che devo ampliare il mio campione per raggiungere la soglia desiderata. ci indica che due variabili non sono diverse tra loro.

In un diagramma a dispersione. la variabile sull'asse delle x è detta variabile indipendente e quella sull'asse y dipendente. La variabile sull'asse delle x è detta variabile dicotomica e quella Sull'asse delle y indipendente. La variabile sull'asse delle y è detta variabile dicotomica e quella Sull'asse delle y indipendente. la variabile sull’asse delle y è detta variabile indipendente e quella sull’asse delle x dipendente.

L'Analisi della Varianza è un metodo statistico. basato sul modello lineare generale. utilizza la distribuzione statistica F. che serve a valutare come variabili nominali predicano una variabile continua. tutte le precedenti.

La retta di regressione. è la retta che permette di studiare il fenomeno della regressione nell’età evolutiva. è la retta che regredisce i valori estremi. è la retta che massimizza gli errori rispetto ai punti di una nuvola nel diagramma di dispersione. È la retta che meglio interpola i punti della nuvola rappresentata nel Diagramma di dispersione.

Nel diagramma rappresentato come interpretiamo il path tra A e B?. Come l'effetto di A su B al netto di C. Come l'effetto totale di B su A. Come l'effetto di A su B. Come l'effetto mediato da C di A su B.

Per cosa è utile la kappa di Fleis?. Per stimare l'attendibilità di due categorizzazioni di casi. Per stimare l'attendibilità di molte (più di due) categorizzazioni di casi. Per stimare l'attendibilità di due misurazioni continue. Per stimare l'attendibilità di una scala.

Sulla base del diagramma di Venn in alto, possiamo concludere che: La variabile D è correlata con tutte le altre variabili. La variabile A probabilmente avrà la saturazione fattoriale più elevata nel primo fattore estratto. La variabile B è correlata con la variabile E. Le variabili E, C e B appartengono probabilmente ad uno stesso fattore.

Report abuse