COMPUTER VISION
![]() |
![]() |
![]() |
Title of test:![]() COMPUTER VISION Description: computer vision ottobre 2025 |




New Comment |
---|
NO RECORDS |
2.01 La visione è il senso che consente all'essere umano di. studiare il mondo 3D, di localizzare senza riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente. studiare il mondo 2D, di localizzare e riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente. studiare il mondo 3D, di localizzare e riconoscere gli oggetti presenti in una scena senza percepire i rapidi mutamenti dell’ambiente. studiare il mondo 3D, di localizzare e riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente. 2. 02. La pattern recogniction si coccupa. del miglioramento, restauro e compressione di immagini, ovvero, si elabora una immagine per ottenerne un’altra in qualche senso “migliore”. dell'(estrazione), identificazione, classificazione di caratteristiche presenti all’interno delle immagini. dell’analisi di immagini numeriche al calcolatore con il fine di scoprire cosa è presente nella scena e dove si trova all’interno di essa. nessuno dei casi precedenti. 2. 03. Cosa s'intende per visione di alto livello nella computer vision?. Esalta alcune caratteristiche visuali tipo il contorno degli oggetti. L'analisi della scena da un punto di vista sementico. il reprimento di informazioni sulla struttura dell'immagine. L'analisi della scena da un punto di vista sintattico. 2. 04. La differenza tra Digital Image Processing e Computer Vision sta. non vi è alcuna differenza. negli obiettivi e non nei metodi. nessuno dei casi precedenti. nei metodi e non negli obiettivi. 3. 01. A quanto risale la nascita del digital image processing ?. Anni '40. Anni '60. Anni '30. Anni '10. 3. 02. A quanto risale l'utilizzo delle prime immagini digitali?. Anni '20. Anni '40. Anni '30. Anni '10. 4. 01. Quando è stato introdotto per la prima volta il concetto di Computer Vision?. Nel 1966 presso il Massachusetts Institute of Technology (MIT). Nel 1990 grazie all'Intelligenza Artificiale. Da David Marr nel 1982. Negli Anni '90 dalla Berkely University. 5. 01. L'operazione di segmentazione di un'immagine di norma è effettuata dopo l'operazione di. Riconoscimento degli oggetti. Rappresentazione & Descrizione. Nessuna delle precedenti. Acquisiszione dell'immagine. 6. 01. Cosa percepiscono i bastoncelli ?. Percepiscono i dettagli e i rapidi cambi di immagine. sensibili alle condizioni di elevata illuminazione (fotopica). Forniscono una visione di insieme della scena. sensibili ai colori. 6. 02. Come si ottine la messa a fuoco dell'immagine sull'occhio umano ?. Allontanandosi dall'immagine. Deformando il cristallino con appositi muscoli. Avvicinandosi all'immagine. Deformando la cornea. 6. 03. La percezione visiva umana è il risultato di. una semplice sequenza di elaborazioni che avvengono in alternanza ad altre attività celebrali percettive. una complessa sequenza di elaborazioni che avvengono in concomitanza ad altre attività celebrali percettive. una complessa sequenza di elaborazioni che avvengono in alternanza ad altre attività celebrali percettive. una singola sequenza di elaborazioni che avvengono in concomitanza ad altre attività celebrali percettive. 6. 04. Cosa è il cristallino?. Una lente naturale dell'occhio umano. Una membrana esterna all'occhio. nessuna delle precedenti. Una regione della retina. 6. 05. L’intensità percepita dall’occhio umano. è funzione solo dell'intensità luminosa. è funzione della distanza dall'oggetto. non è una funzione solo dell'intensità luminosa. nessuna delle precedenti. 6. 06. La luminosità percepita dipende. Dalla distanza dall'oggetto. dalla luminosità dell'ambiente circostante. Dalla posizione dell'oggetto. Dal colore dell'immagine. 7. 01. La luce, oltre alla frequenza, è caratterizzata dalle seguenti grandezze: radianza, luminanza, luminosità. radianza, contrasto, colore. nessuna delle precedenti. luminanza, saturazione, luminosità. 7. 02. Cosa s'intende per risoluzione di un'immagine ?. La saturazione di un'immagine. Il numero e la dimensione dei pixel di un'immagine. La scala di grigi di un'immagine. Il colore di un'immagine. 7. 03. Cosa s'intende per quantizzazione di un'immagine ?. E' l'operazione di digitalizzazione dei valori delle coordinate di un’immagine. nessuna delle precedenti. E' l'operazione di digitalizzazione dei valori dell’ampiezza di una immagine. E' l'operazione di digitalizzazione sia dei dei valori dell’ampiezza che delle coordinate di una immagine. 7. 04. Come si definisce il concetto di saturazione di un'immagine. E' il fenomeno per il quale tutte le intensità superiori ad una certa soglia vengono rappresentate come bianco. E' il fenomeno per il quale tutte le intensità inferiori ad una certa soglia vengono rappresentate come bianco. E' il fenomeno per il quale tutte le intensità comprese in un intervallo di soglia vengono rappresentate come bianco. nessuna delle precedenti. 8. 01. Quando due regioni si definiscono disgiunte?. Quando la loro unione non è connessa. Nessuno delle precedenti. Quando non sono adiacenti. Quando le due regioni sono adicenti e connesse. 8. 02. Dato un Pixel p(x,y) un 4-intorno (4-neighbor) denotato N4(p) è definito da: (x + 1, y+1 ), (x − 1, y-2 ), (x, y + 1), (x, y − 1). Nessuno delle precedenti. (x + 1, y + 1), (x − 1, y + 1), (x + 1, y + 1), (x − 1, y − 1). (x + 1, y ), (x − 1, y ), (x, y + 1), (x, y − 1). 8. 03. Quando un path tra pixel è definito chiuso ?. Quando (x0, y0) è diverso (xn, yn), ovvero i due pixel iniziale e finale del path sono diversi. Nessuno delle precedenti. Quando (x0, y0) = (xn, yn), ovvero i due pixel iniziale e finale del path coincidono. Quando due percorsi aperti s'intersecano. 9. 01. Il dominio spaziale di un'immagine è. il piano che contiene i pixel dell'immagine. Lo sfondo di un'immagine. Il negativo di un'immagine. La proiezione di un'immagine su di un piano. 9. 02. Il negativo di un’immagine con livelli d’intensità nella gamma [0,L-1] si ottiene per: s = L + 1 − r. s = L − 1 − r. s = L − 1 + r. s = L − 1 − r^2. 9. 03. Nella selzione mediante piani di bit l'immagine è vista come. composta da strati di grigio. composta da regioni. somma di immagini di diverso colore. composta da strati di bit. 9. 04. La trasformazione logaritma di un'immagine è caratterizzata dall'espressione: s = c log(1 - r ). s = c + r log(1 + r ). s = c log(1 + r ). s = log(1 + r ). 9. 05. I processi del dominio spaziale sono definiti dall’espressione. g (x, y) = T [f (x, y)]. g (x, y) = T [f (x, y)+f (y,x)]. g (x, y) = T [f (x, y)]/2. g (x, y) = T [f (x, y)^2]. 10. 01. Se consideriamo i livelli d'intensità come variabili casuali si dimostra che. solo per alcuni livelli di intensità di r prossimi al valore 255, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. solo per alcuni livelli di intensità di r prossimi al valore 0, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. a tutti i livelli di intensità r, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. solo per alcuni livelli di intensità r, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. 10. 02. Una funzione monotona crescente. non permette di ottenere una trasformazione inversa. Nessuna delle precedenti. permette di ottenere anche una trasformazione inversa definita in tutti i punti. permette di ottenere anche una trasformazione inversa definita solo in pochi punti. 10. 03. Una funzione T(r) è detta monotona non decrescente quando. T(r2 ) = T(r1 )/2 con r2 > r1. T(r2 ) = T(r1 ) con r2 > r1. T(r2 ) ≥ T(r1 ) con r2 > r1. T(r2 ) <T(r1 ) con r2 > r1. 10. 04. Un'immagine ad elevato contrasto presenterà un istogramma. con valori distribuiti in tutto il range d'intensità. con valori distribuiti solo nei valori prossimi allo 0 del rande d'intensità. con valori distribuiti solo nei valori prossimi al valore 255 del rande d'intensità. con valori distrivuiti nella parte centrale del rande d'intensità. 11. 01. L’operazione di filtraggio si riduce all’attenuazione o all’amplificazione di. di tutte le componenti determinate da intervalli di frequenza ben precisi. di alcune componenti determinate da intervalli di frequenza ben precisi. di alcune componenti determinate da intervalli spaziali ben precisi. di tutte le componenti determinate da intervalli di frequenza non ben definiti. 11 02. La tecnica di filtraggio spaziale di definisce lineare. quando la regola di trasformazione è una funzione lineare dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione non lineare dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione dicreta dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione lineare dei valori di intensità rispetto a tutta l'immagine. 11. 03. I meccanismi di convoluzione sono gli stessi di quelli della correlazione tranne per il fatto che. il filtro viene prima ruotato di 180°. il filtro viene prima traslato di 135°. il filtro viene prima ruotato di 90°. il filtro viene prima ruotato di 45°. 11. 04. Col termine sero padding si ci riferisce all'operazione per cui. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle colonne. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri su entrambi i lati. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di uni su entrambi i lati. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle righe. 13. 01. Cosa s’intende per elaborazione delle immagini mediante Analisi di Fourier continua?. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti spaziali. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti a diversa frequenza. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti di uguale frequenza. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come differenze di componenti a diversa frequenza. 13.02. Un impulso unitario di una variabile continua è caratterizzato da: un segnale ad ampiezza infinita applicato per un tempo infinitesimo. un segnale ad ampiezza finita applicato per un tempo infinitesimo. un segnale ad ampiezza finito applicato per un tempo finito. un segnale ad ampiezza infinita applicato per un tempo finito. 13. 03. A cosa serve la proprietà si Sifting rispetto all'integrazione ?. nessuna delle precedenti. a definire un'espressione per campionare una funzione mediante l'operatore di convoluzione. a definire un'espressione per campionare una funzione mediante l'operatore di correlazione. a definire un'espressione per traslare una funzione mediante l'operatore di correlazione. 13. 04. Il teorema della convoluzione afferma che: la convoluzione nel dominio spaziale corrisponde al rapporto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde alla somma nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde al prodotto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al prodotto nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde al rapporto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al rapporto nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde alla somma nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al prodotto nel dominio spaziale. 14. 01. la trasformata di Fourier di una funzione campionata è: una sequenza di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza finita e periodica di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza infinita e periodica di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza infinita e di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. 14. 02. L'operazione di campionamento può essere espressa come: il rapporto tra la funzione da campionare con il relativo passo di campionamento. il prodotto tra la funzione da campionare con il relativo passo di campionamento. la differenza tra la funzione da campionare con il relativo passo di campionamento. la somma tra la funzione da campionare con il relativo passo di campionamento. 14. 03. Il concetto di campionamento critico sta indicare che: la frequenza di campionamento è potrebbe non garantire il corretto campionamento della funzione originaria. nessuna delle precedenti. la frequenza di campionamento non è sufficiente a campionare corretamente la funzione originaria. la frequenza di campionamento è ancora sufficiente a campionare corretamente la funzione originaria. 14. 04. Si definisce aliasing: il processo in cui le componenti a media frequenza di una funzione continua si mascherano alle frequenze più basse nella funzione campionata. il processo in cui le componenti ad alta frequenza di una funzione continua si mascherano alle frequenze più basse nella funzione campionata. il processo in cui le componenti a bassa frequenza di una funzione continua si mascherano alle frequenze più alte nella funzione campionata. il processo in cui le componenti ad alta frequenza di una funzione continua si mascherano alle frequenze medie nella funzione campionata. 15. 01. L’effetto di Aliasing può essere ridotto: interpolando l'immagine. Nessuna delle precedenti. ingrandendo l'immagine. Applicando lo smoothing (sfocando la scena) prima del campionamento. 15. 02. Cos'è l'effetto Moirè?. E un artefatto che si riferisce alle strutture (pattern) periodiche prodotte tra due griglie sovrapposte caratterizzate da diversa distanza. Nessuna delle precedenti. E un artefatto che si riferisce alle strutture (pattern) non periodiche prodotte tra due griglie sovrapposte aventi, approssimativamente, un’uguale distanza. E' un artefatto che si riferisce alle strutture (pattern) periodiche prodotte tra due griglie sovrapposte aventi, approssimativamente, un’uguale distanza. 16. 01. Le basi de filtraggio lineare delle immagini nel dominio della frequenza sono stabilite: Dalla proprietà di traslazione dellta trasformata discreta di Fourier 2-D . Dalla proprietà di rotazione dellta trasformata discreta di Fourier 2-D . Dalla proprietà di simmetria dellta trasformata discreta di Fourier 2-D . Dal teorema della convoluzione 2-D . 16. 02. Lo spettro di Fourier di un'immagine è. Una matrice le cui componenti determinano le intensità dell’immagine. Nessuna delle precedenti. Un vettore le cui componenti determinano le intensità dell’immagine. Una matrice le cui componenti determinano informazioni sulla posizione degli oggetti riconoscibili nell’immagine. 16. 03. La fase secondo la forma polare dell trasformata discreta 2-D di Fourier nel caso di un'immagine corrisponde: Ad una matrice di angoli che ci fornisce informazioni sull'intensità e posizione degli oggetti riconoscibili all’interno dell’immagine. Ad un vettore di angoli che ci fornisce informazioni sulla posizione degli oggetti riconoscibili all’interno dell’immagine. Ad una matrice di angoli che ci fornisce informazioni sulla posizione degli oggetti riconoscibili all’interno dell’immagine. Nessuna delle precedenti. 16. 04. Come può essere risolto l'errore di wraparound?. Applicando il teorema della convoluzione. Nessuna delle precedenti. Aggiungenzo degli 1 all'immagine originale. Adoperando la tecnica dello zero-padding. 17. 01. Un filtro passa-basso definito nel dominio della frequenza: Permette di ottenere un’immagine filtrata più nitida. Permette di ottenere un’immagine filtrata sfocata. Nessuna delle precedenti. Permette di ottenere un’immagine filtrata messa a fuoco. 17. 02. Il filtraggio nel dominio della frequenza si ottiene: Nessuna delle precedenti. Modificando i coefficienti della trasformata dell’immagine originale, per poi procedere alla trasformazione inversa dell’immagine processata. Moltiplicando i coefficienti della trasformata dell’immagine originale per una funzione discontinua a tratti, per poi procedere alla trasformazione inversa dell’immagine processata. Modificando i coefficienti della trasformata inversa dell’immagine originale, per poi procedere alla trasformazione dell’immagine processata. 17. 03. Un filtro passa-alto definito nel dominio della frequenza: Permette di ottenere un’immagine filtrata con i dettagli migliorati a discapito del contrasto. Permette di ottenere un’immagine filtrata con i dettagli e contrasto migliorati. Permette di ottenere un’immagine filtrata con i dettagli degradati e contrasto migliorato. Permette di ottenere un’immagine filtrata con i dettagli migliorati a discapito della messa a fuoco. 17. 04. Nel dominio della frequenza perché è opportuno aggiungere una costante al filtro passa-basso?. Per migliorare la messa a fuoco dell'immagine. Per recuperare la componente DC dell’immagine. Per recuperare la componente AC dell’immagine. Non serve in nessun caso. 18. 01. Il legame fondamentale tra il filtraggio eseguito nel dominio spaziale e quello eseguito nel dominio della frequenza è costituito dal: Teorema della convoluzione. Teorema del campionamento. Nessuna delle precedenti. Teorema della correlazione. 18. 02. I filtri basati sulle funzioni gaussiane sono interessanti perché sia la trasformata di Fourier della funzione gaussiana che la sua antitrasformata sono: Funzioni gaussiane immaginarie. Funzioni discontinue a tratti. Funzioni gaussiane complesse. Funzioni gaussiane reali. 18. 03. Considerando due Gaussiane nella definizione di un filtro nel dominio della frequenza si ottiene: Un filtro che elimina solo la componente DC. Un filtro passa-banda. Un filtro passa-basso. Un filtro passa-alto. 19. 01. Si definisce frequenza di taglio (cut-off frequency). Di una sezione trasversale di un filtro ideale low pass: Il punto di transizione tra H(u,v)=1 e H(u,v)=1;. Il punto di transizione tra H(u,v)=0 e H(u,v)=1;. Il punto di transizione tra H(u,v)=1 e H(u,v)=0;. Il punto di transizione tra H(u,v)=0 e H(u,v)=0;. 19. 02. Lo smoothing nel dominio della frequenza è ottenuto tramite: L’attenuazione delle frequenze più alte, cioè tramite il filtraggio DC pass. L’attenuazione delle frequenze più alte, cioè tramite il filtraggio high pass. L’attenuazione delle frequenze più basse, cioè tramite il filtraggio high pass. L’attenuazione delle frequenze più alte, cioè tramite il filtraggio low pass. 20. 01. La funzione di trasferimento del filtro low pass di Butterworth è: A tratti. Discontinua. Periodica. Graduale. 20. 02. In generale, l’assenza del ringing in un filtro low pass di Butterworth è dovuta: Alla transizione graduale tra le frequenze medie e alte. Alla transizione paeriodica tra le frequenze basse e alte. Alla transizione brusca tra le frequenze basse e alte. Alla transizione graduale tra le frequenze basse e alte. 20. 03. L’antitrasformata di Fourier del filtro low pass gaussiano è: Una funzione gaussiana. Una funzione logaritmica. Una funzione sinusoidale. Una funzione discontinua. 21. 01. Tipicamente un filtro high pass di Butterworth (BHPF) presenta: Un effetto ringing nullo. Un effetto ringing pronunciato. Nessuna delle precedenti. Un effetto ringing modesto. 21. 02. Lo sharpening delle immagini si può ottenere nel dominio della frequenza con: I filtri low pass. I filtri band pass. Nessuna delle precedenti. I filtri high pass. 21. 03. Filtro high pass ideale (IHPF) presenta: Un effetto ringing nullo. Nessuna delle precedenti. Un effetto ringing modesto. Un effetto ringing pronunciato. 21. 04. Tipicamente un filtro high pass gaussiano (GHPF) presenta: Dei risultati equiparabili al filtro ideale low pass. Dei risultati più tenui rispetto agli altri filtri high pass. Dei risultati più intensi rispetto agli altri filtri high pass. Dei risultati equiparabili al filtro di Butterwotrh low pass. 22. 01. I filtri noch sono caratterizzati dal fatto che: processano l'intero rettangolo della frequenza. Nessuna delle precedenti. possono processare sia l'intero rettangolo della frequenza che alcune porzioni di esso. sono in grado di processare determinate bande di frequenza o piccole regioni del rettangolo della frequenza. 22.02. Il filtraggio omomorfico è un tipo di filtraggio che opera nel dominio: Spaziale. Della frequenza. Nessuna delle precedenti. Dello spazio o della frequenza a seconda del caso. 23. 01. Il colore viene utilizzato nelle immani digitali perché: E’ un descrittore che semplifica l'estrazione di un'oggetto da una scena. Migliora il contrasto dell'immagine. E’ un descrittore che semplifica l’identificazione di un oggetto e la sua estrazione da una scena. E’ un descrittore che semplifica l’identificazione di un oggetto. 23. 02. La qualità della luce cromatica è descritta tramite: Radianza, luminanza, luminosità. Radianza, saturazione, croma. Radianza, luminanza, contrasto. Radianza, saturazione, luminosità. 23. 03. La luce acromatica (senza colore) ha come unico attributo: Il colore. Il contrasto. L'intensità. La radianza. 23. 04. Le caratteristiche utilizzate per distinguere un colore da un altro sono: La luminosità, il contrasto e la saturazione. La luminosità, la tonalità e la saturazione. La luminosità, la radianza e la saturazione. La luminosità, la tonalità e la radianza. 24. 01. Cosa si intende per profondità del pixel nel modello RGB?. E' il numero di bit utilizzato per rappresentare ogni pixel nello spazio RGB. E' il numero di byte utilizzato per rappresentare ogni pixel nello spazio RGB. E' il numero di bit utilizzato per rappresentare una regione di pixel nello spazio RGB. Nessuna delle precedenti. 24. 02. Cosa si intende per colori RGB scuri?. Sono un sottoinsieme di colori dei quali la riproduzione può essere fedele e/o indipendente dalle capacità dell’hardware. Sono l' insieme di colori dei quali la riproduzione fedele è indipendente dalle capacità dell’hardware. Nessuna delle precedenti. Sono un sottoinsieme di colori dei quali la riproduzione fedele è indipendente dalle capacità dell’hardware. 24.03. Il modello del colore HSI possiede la proprietà di: Unisce la componente intensità dalle informazioni relative al colore (tonalità, saturazione) di un’immagine a colori. Nessuna delle precedenti. Divide la componente intensità dalle informazioni relative al contrasto di un’immagine a colori. Divide la componente intensità dalle informazioni relative al colore (tonalità, saturazione) di un’immagine a colori. 24. 04. A cosa servono i modelli del colore?. Servono a definire le scale di contrasto di un'immagine a colori. Nessuna delle precedenti. Servono per migliorare le immagini. Servono per facilitare e standardizzare la specifica dei colori. 25. 01. Nell'elaborazione delle immagini full-color: Nessuna delle precedenti. Ogni componente viene elaborata sia individualmente che cumulativamente e poi si procede alla combinazione dell’immagine a colori finale. Ogni componente viene elaborata individualmente e poi si procede alla combinazione dell’immagine a colori finale. Ogni componente viene elaborata cumulativamente e poi si procede alla combinazione dell’immagine a colori finale. 25. 02. Il metodo trasformazioni da intensità a colore nell'elaborazioni delle immagini a falsi colori consiste: Nell’attuare tre trasformazioni indipendenti sulla posizione di ogni pixel di input. Nell’attuare tre trasformazioni indipendenti sull’intensità e posizione di ogni pixel di input. Nell’attuare tre trasformazioni indipendenti sull’intensità di ogni pixel di input. Nessuna delle precedenti. 25. 03. L’elaborazione di immagini a falsi colori è un metodo che consiste: Nessuna delle precedenti. Nell’assegnare opportunamente l’informazione colore ai valori di saturazione. Nell’assegnare opportunamente l’informazione colore ai valori di contrasto. Nell’assegnare opportunamente l’informazione colore ai valori di grigio. 26. 01. Il Color Slicing serve per evidenziare: Una gamma specifica di colori e risulta utile per separare gli oggetti dalle regioni più chiare dell'immagine. Una gamma specifica di colori e risulta utile per separare gli oggetti da ciò che li circonda. Una gamma specifica di colori e risulta utile per separare gli oggetti dai colori più scuri. Una gamma generica di colori e risulta utile per separare gli oggetti da ciò che li circonda. 26. 02. Le correzioni di tonalità del colore hanno come obiettivo: Quello di regolare in maniera sperimentale la luminosità di un'immagine. Quello di regolare in maniera sperimentale il contrasto di un'immagine. Quello di regolare in maniera sperimentale la luminosità e il contrasto di un'immagine. Quello di regolare in maniera sperimentale la luminosità o il contrasto di un'immagine. 26. 03. A cosa si ci riferisce con il termine trasformazione di colore?. Alle tecniche di elaborazione delle immagini per singola componente e alle tecniche di conversione degli spazi colore. Alle trasformazioni da RGB a HSI e viceversa. Alle tecniche di elaborazione delle immagini per singola componente. Alle tecniche conversione degli spazi colore. 26. 04. I valori complementari dei colori sono utili per: Evidenziare un dettaglio inglobato in regioni scure di un'immagine a colori:. Evidenziare un dettaglio inglobato in regioni chiare di un'immagine a colori:. Evidenziare un dettaglio inglobato in regioni chiaro-scure di un'immagine a colori:. Evidenziare un dettaglio inglobato in regioni ad alto contrasto di un'immagine a colori:. 27. 01. Per l'elaborazioni degli istogrammi di immagini digitali a colori conviene lavorare nello spazio: CMY. RGB. CMYK. HSI. 27. 02. Nello smoothing delle immagini a colori: Si utilizzano i vettori delle componenti colore. Si utilizzano i vettori delle componenti colore ed i valori d'intensità scalari. Si utilizzano i valori d'intensità scalari. Nessuna delle precedenti. 27. 03. Lo sharpering di un’immagine a colori può essere ottenuto mediante: Nessuna delle precedenti. L'utilizzo dell'operatore laplaciano. L'utilizzo dell'operatore integrale. L'utilizzo dell'operatore scalare. 28. 01. Nella segmentazione di immagini basata sullo spazio a colori RGB: L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione della tonalità dell'immagine. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in una data immagine come un colore appartenente alla gamma specificata o al di fuori di essa. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione dell'intensità dell'immagine. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione della saturazione dell'immagine. 28. 02. Nello spazio a colori RGB si ottengono risultati: Identici rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo. Migliori rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo. Peggiori rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo. Nessuna delle precedenti. 28. 03. Nella segmentazione di immagini basata sullo spazio a colori HSI la saturazione: Nessuna delle precedenti. E' usata per segmentare l'immagine. E' usata come immagine maschera per isolare ulteriori regioni di interesse rispetto alla tonalità. E' usata come immagine maschera per isolare ulteriori regioni di interesse rispetto all' intensità. 28. 04. Nella segmentazione di immagini basata sullo spazio a colori HSI i valori della tonalità: Possono essere utilizzati per segmentare l’immagine. Nessuna delle precedenti. Possono essere utilizzati per creare maschere per isolare regioni d'interesse. Non contengono informazioni riguardanti i colori. 29. 01. Quando si passa dallo spazio RGB a quello HSI se solo uno dei canali RGB è affetto da rumore, la conversione in HSI: Distribuisce il rumore sollo alla componente croma. Distribuisce il rumore a tutte le immagini componenti. Distribuisce il rumore sollo alla componente luminosità. Distribuisce il rumore sollo alla componente saturazione. 29. 02. In un’immagine a colori il rumore a grana è : più visibile rispetto che in un’immagine monocromatica. lo stesso rispetto che in un’immagine monocromatica;. Nessuna delle precedenti. meno visibile rispetto che in un’immagine monocromatica. 29. 03. Il rumore a grana fine ha la tendenza: Ad essere più evidente dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Ad essere meno evidente dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Ad essere nullo dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Nessuna delle precedenti. 30. 01. Nella morfologia la proprietà di riflessione è definita come: Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x,-y). Se B è l’insieme dei pixel (punti 3-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,-y). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,y). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,-y). 30. 02. Si definiscono elementi strutturanti (SE, Structural Elements): Piccoli insiemi o sotto-immagini usati per esplorare un’immagine in riferimento alle proprietà di interesse. Insiemi random usati per esplorare un’immagine in riferimento alle proprietà di interesse. Nessuna delle precedenti. Raggruppamenti di insiemi usati per esplorare un’immagine in riferimento alle proprietà di interesse. 30.03. Nella morfologia la proprietà di traslazione è definita come: Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x+z1,y-z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x+z1,y+z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x-z1,y-z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x-z1,y+z2). 31. 01. L'operazione di erosione può essere considerata anche come: Un'operazione di filtraggio morfologico in cui i dettagli dell'immagine più grandi dell'elemento strutturante vengono rimossi dall'immagine. Un'operazione di filtraggio morfologico in cui i dettagli dell'immagine più piccoli dell'elemento strutturante vengono marcati nell'immagine. Nessuna delle precedenti.. Un'operazione di filtraggio morfologico in cui i dettagli dell'immagine più piccoli dell'elemento strutturante vengono rimossi dall'immagine. 31.02. Il concetto di dilatazione è definito come segue: Nessuna delle precedenti.. La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A non si sovrappongano. La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A si sovrappongano almeno per un elemento. La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A si sovrappongano almeno per due elementi. 31. 03. L'operazione di dilatazione: Marca gli oggetti in un'immagine binaria. Nessuna delle precedenti.. Assottiglia gli oggetti in un'immagine binaria. Accresce o Ispessisce gli oggetti in un'immagine binaria. 31.04. La dilatazione applicata alle immagini: Ha effetti simili a quelli del filtraggio hig-pass. Nessuna delle precedenti.. Ha effetti simili a quelli del filtraggio low-pass. Ha effetti simili a quelli del filtraggio band-pass. 32. 01. Il processo di apertura può anche essere considerato come: L’erosione di B attraverso A, seguita dalla dilatazione del risultato attraverso B. Nessuna delle precedenti.. L’erosione di A attraverso B, seguita dalla dilatazione del risultato attraverso A. L’erosione di A attraverso B, seguita dalla dilatazione del risultato attraverso B. 32. 02. Per eliminare gli effetti del rumore in una immagine: Si applica un'apertura. Si applica una chiusura seguita da un'apertura. Si applica un'apertura seguita da una chiusura. Nessuna delle precedenti.. 32. 03. Il processo di chiusura: Generalmente elimina solo piccoli buchi e riempendo i vuoti nel contorno. Nessuna delle precedenti.. Generalmente fonde insieme le interruzioni sottili e i segmenti stretti e lunghi eliminando piccoli buchi e riempendo i vuoti nel contorno. Generalmente fonde insieme solamente le interruzioni sottili. 33. 01. Un vuoto (Hole) è: Nessuna delle precedenti.. Una regione di sfondo circondata da un bordo connesso di pixel del background. Una regione di sfondo circondata da un bordo sconnesso di pixel del foreground. Una regione di sfondo circondata da un bordo connesso di pixel del foreground. 33. 02. Per ottenere il riempimento di vuoti in un’immagine si fa uso di un algoritmo basato su: Dilatazione, complemento. Dilatazione, complemento ed intersezione. Nessuna delle precedenti.. Erosione, complemento ed intersezione. 33. 03. La trasformazione Hit-or-miss e: Fondamentale per l’individuazione degli sfondi. Fondamentale per l’individuazione dei contorni. Fondamentale per l’individuazione delle forme. Nessuna delle precedenti.. 34. 01. L'algoritmo involucro convesso converge quando: Xik=Xik-1. Nessuna delle precedenti. Xik=Xik-2. Xik=Xik-n. 34. 02. L'algoritmo per l'estrazione di compomenti complesse termina quando: Xk-1= Xk. Xk+1= Xk. Nessuna delle precedenti. Xk-n= Xk. 35. 01. I metodi di potatura rappresentano: Un complemento essenziale per eliminare componenti spurie lasciate dal processo di scheletrizzazione. Un complemento inessenziale per eliminare componenti spurie lasciate dal processo di assottigliamento. Nessuna delle precedenti.. Un complemento inessenziale per eliminare componenti spurie lasciate dal processo di scheletrizzazione. 35. 02. Lo scheletro di A può essere espresso in termini di sequenze di: Assottigliamenti ed inspessimenti. Erosioni ed assottigliamenti. Erosioni e aperture. Aperture e chiusure. 35. 03. Il disco massimo nella schelettrizzazione è definito come: Nessuna delle precedenti.. Il disco più grande centrato su z e contenuto in A. Il disco più grande centrato su z. Il disco più piccolo centrato su z e contenuto in A. 35. 04. Gli elementi strutturanti utilizzati per l'ispessimento hanno la stessa forma di quelli mostrati nel caso dell’assottigliamento: Ma con tutti i valori 1 e 0 scambiati. Ma con tutti i valori posti a 0. Ma con tutti i valori posti ad 1. Nessuna delle precedenti.. 36. 01. Nell'erosione geodetica l'operazione di unione garantisce che: L’erosione geodetica di un’immagine rimanga minore o uguale alla sua immagine maschera. Nessuna delle precedenti.. L’erosione geodetica di un’immagine rimanga uguale alla sua immagine maschera. L’erosione geodetica di un’immagine rimanga maggiore o uguale alla sua immagine maschera. 36. L’erosione geodetica di un’immagine rimanga maggiore o uguale alla sua immagine maschera. La maschera G limiti la contrazione del marker F. La maschera G imponga la crescita (dilatazione) del marker F. La maschera G limiti la crescita (dilatazione) del marker F. Nessuna delle precedenti.. 37. 01. L'apertura in scala di grigio di un’immagine f attraverso un elemento strutturante b: E' l’erosione di f attraverso b, seguita da una dilatazione del risultato ottenuto con b. E' la dilatazione di f attraverso b, seguita da una erosione del risultato ottenuto con b. Nessuna delle precedenti.. E' l’erosione di f attraverso b, seguita da una nuova erosione del risultato ottenuto con b. 37. 02. L’erosione di f attraverso un elemento strutturante flat b è definita per ogni posizione (x, y) come: Il valore massimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova in (x, y). Nessuna delle precedenti.. Il valore minimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova al di fuori di (x, y). Il valore minimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova in (x, y). 37. 03. Applicando un’erosione in scala di grigio otteniamo un’immagine: Più nitida dell’originale. Più chiara dell’originale. Più scura dell’originale. A più alto contrasto dell’originale. 38. 01. Nell'individuazione delle discontonuità la derivata seconda: Evidenzia meglio i cambiamenti bruschi mettendo in rilievo i dettagli sottili. Evidenzia meglio i cambiamenti lenti mettendo in rilievo i dettagli spessi.. Evidenzia meglio i cambiamenti lenti mettendo in rilievo i dettagli sottili. Evidenzia meglio i cambiamenti bruschi mettendo in rilievo i dettagli spessi. 38. 02. Gli edge o segmenti di edge sono: Insiemi di pixel di edge diconnessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine aumenta all’improvviso. Insiemi di pixel di edge disconnessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine cambia all’improvviso. Insiemi di pixel di edge connessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine diminuisce all’improvviso. Insiemi di pixel di edge connessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine cambia all’improvviso. 39. 01. Nei modelli di edge si definisce zero crossing: L’intersezione tra l’asse di intensità zero e una linea che passa per gli estremi della derivata seconda. L’intersezione tra l’asse di intensità uno e una linea che passa per gli estremi della derivata seconda. L’intersezione tra l’asse di intensità zero e una linea che passa per gli estremi della derivata prima. L’intersezione tra l’asse di intensità uno e una linea che passa per gli estremi della derivata prima. 39. 02. Il modello di edge a roof: Nessuna delle precedenti.. E' caratterizzato dalla sfocatura e dal rumore presenti nelle immagini presenti a causa del dispositivo di acquisizione. E' associato al bordo di una qualche regione e la base (la larghezza) di questo tipo di bordo è determinata dallo spessore e dalla sfocatura della linea. E' un edge ideale che separana due livelli di intensità alla distanza di 1 pixel. 40. 01. Per poter individuare gli edge in modo più selettivo e mantenendo il più alto grado di connettività: Conviene effettuare un thresholding all’immagine prima del calcolo del gradiente. Conviene effettuare un doppio smoothing (sfocatura) prima del calcolo del gradiente. Conviene effettuare uno smoothing (sfocatura) prima del calcolo del gradiente e quindi il thresholding all’immagine gradiente. Conviene effettuare uno smoothing (sfocatura) dopo il calcolo del gradiente e quindi il thresholding all’immagine gradiente. 41. 01. L' individuatore di edge di Marr-Hildreth: Non tiene conto della presenza di rumore e della natura degli edge. Tiene conto della presenza di rumore e della natura degli edge. Nessuna delle precedenti.. Tiene conto della presenza di rumore ma non della natura degli edge. 41. 02. Quali dei seguenti obiettivi non rientra tra quelli su cui si basa l'algoritmo di Canny?. Risposta puntuale per edge singolo. I punti di edge devono essere ben localizzati. Basso tasso di errore. Nessuna delle precedenti. 42. 01. La trasformata di Hough, dati n punti in un’immagine, permette di trovare dei sottoinsiemi che si trovano su: Poligoni. Linee rette. Curve qualsiasi. Regioni chiuse. 42. 02. Quale dei seguenti metodi non è adoperato per effettuare edge-linking ?. Nessuna delle precedenti. Elaborazione nelle regioni. Elaborazione locale. Elaborazione globale utilizzando la trasformata di Hough. 42. 03. Il metodo di elaborazioni delle regioni: Si utilizza quando si ha una conoscenza a priori delle regioni di interesse e dell’appartenenza di un pixel ad una determinata regione. Nessuna delle precedenti.. Si utilizza quando non si ha una conoscenza a priori dell’appartenenza di un pixel ad una determinata regione. Si utilizza quando non si ha una conoscenza a priori delle regioni di interesse. 43. 01. Nell'algoritmo di bisezione con media si iterano i punti dal 2 al 4 sino a quando: La differenza tra i valori assegnati a Tnew non risulta minore di un parametro predefinito ΔT. Nessuna delle precedenti.. La somma tra i valori assegnati a Tnew non risulta minore di un parametro predefinito ΔT. La differenza tra i valori assegnati a Tnew risulta minore di un parametro predefinito ΔT. 43. 02. Nella segmentazione mediante sogliatura viene definito punto dell’oggetto ogni punto (x,y) nell’immagine in cui: f(x,y) < T. f(x,y) = T. f(x,y) >= T. f(x,y) > T. 43. 03. Nella segmentazione mediante sogliatura viene definito punto nello sfondo ogni punto (x,y) nell’immagine in cui: f(x,y) > T. f(x,y) >= T. f(x,y) < T. f(x,y) = T. 43. 04. Quali dei seguenti fattori non influenza le proprietà delle valli nella segmentazione mediante sogliatura?. Il rumore contenuto nell’immagine. La distanza tra i picchi. Nessuna delle precedenti.. L’uniformità della fonte di illuminazione. 43. 05. Nella segmentazione mediante la sogliatura globale è caratterizzata dal fatto che: T dipende dalle coordinate spaziali (x,y). Nessuna delle precedenti.. T è una costante applicabile all’intera immagine. T cambia nel corso del processo. 44. 01. La procedura di region growing: Raggruppa i pixel o le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità o connettività. Raggruppa i pixel o le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità e connettività. Raggruppa i pixel e le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità e connettività. Nessuna delle precedenti.. 44. 02. Nella procedura di watershed morfologica con utilizzo dei marker, imarker interni sono definiti come: Una regione circondata da punti di altitudine elevata tale che i punti nella regione formino una componente connessa in cui tutti i punti nella componente connessa abbiano la diversa intensità. Una regione circondata da punti di altitudine elevata tale che i punti nella regione formino una componente connessa in cui tutti i punti nella componente connessa abbiano la stessa intensità. Nessuna delle precedenti.. Una regione circondata da punti di altitudine elevata tale che i punti nella regione formino una componente disconnessa in cui tutti i punti nella componente connessa abbiano la stessa intensità. 44. 03. La procedura di region splitting e merging: E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie, ma disgiunte e successivamente le fonde e/o le separa in regioni. Nessuna delle precedenti.. E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie e successivamente le fonde e/o le separa in regioni. E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie. 45. 01. Is softcomputnig unisce metodologie “soft” nel senso che: La loro precisione è sfumata e che la logica su cui si basano è elastica. La loro precisione è sfumata e che la logica su cui si basano è rigida. La loro precisione è discreta e che la logica su cui si basano è elastica. La loro precisione è discreta e che la logica su cui si basano è rigida. 45.02. L'hard computing: Prevede l'incertezza e l'imprecisione nelle fasi di calcolo, di elaborazione e di decisione. Nessuna delle precedenti.. Non prevede l'incertezza e l'imprecisione nelle fasi di calcolo, di elaborazione e di decisione. Non prevede l'incertezza e l'imprecisione solo nelle fasi di calcolo. 45. 03. Un sistema Fuzzy: Nessuna delle precedenti.. Mappa gli input agli output di un sistema in modo discreto ed in modo non lineare. Mappa gli input agli output di un sistema in modo logico ed in modo non lineare. Mappa gli input agli output di un sistema in modolineare. 45. 04. Una delle ragioni per cui gli esseri umani hanno capacità di controllo migliori di quelle delle macchine attuali è che: Gli esseri umani sono in grado di prendere decisioni sulla base di informazioni linguistiche imprecise. Gli esseri umani non sono in grado di prendere decisioni sulla base di informazioni linguistiche imprecise. Nessuna delle precedenti.. Gli esseri umani sono in grado di prendere decisioni sulla base di informazioni linguistiche precise. 46. 01. La derivata della funzione sigmoide è pari a: Nessuna delle precedenti. Ay(1-y);. Ay/(1-y);. Ay(1+y);. 46. 02. Si definisce paradigma connessionista: Il comportamento intelligente che emerge dalle numerose interazioni tra le unità interconnesse. Il comportamento intelligente che emerge dalle sconnesse. Nessuna delle precedenti. Il comportamento intelligente emerge dalla statistica delle unità interconnesse. 46. 03. Si definisce potenziale post-sinattico: La media semplice degli ingressi. La media pesata degli ingressi. La media pesata delle uscite di ogni neurone. Nessuna delle precedenti. 47. 01. Nel algoritmo di Widrow-Hoff il coefficiente noto come learning rate ha valore compreso tra: -1 e 0. -10 e 10. 0 ed 1. -1 ed 1. 47. 02. Nelle reti MPL il termine di momentum ha l’effetto di: Filtrare le variazioni a media frequenza della superficie di errore E, nello spazio dei pesi w. Nessuna delle precedenti. Filtrare le variazioni ad alta frequenza della superficie di errore E, nello spazio dei pesi w. Filtrare le variazioni a bassa frequenza della superficie di errore E, nello spazio dei pesi w. 47.03. Nell'apprendimento denominato “competitive learning”: I neuroni si competono la vittoria ad ogni presentazione di un neurone. Nessuna delle precedenti. I neuroni si competono la vittoria ad ogni presentazione di un ingresso. I neuroni si competono la vittoria ad ogni computazione di uscita del neurone in questione. 47.04. L’algoritmo di Widrow-Hoff calcola i pesi necessari: Partendo da pesi casuali e apportando ad essi piccole variazioni, graduali e progressive, in un processo che converge alla soluzione finale. Partendo da pesi casuali e apportando ad essi piccole variazione in un processo che converge alla soluzione finale. Partendo da pesi casuali e apportando ad essi generiche variazioni, graduali e progressive, in un processo che converge alla soluzione finale. Nessuna delle precedenti. 48. 01. Calcolare la Wout, dimensione (orizzontale) della feature map di output caratterizzata da: Stride = 1, Padding = 0, Win = 35, F = 5 Wout = [(Win - F + 2*Padding) / Stride] +1. 32. 30. 28. 31. 48. 02. L’interazione sparsa permette di: Incrementare le dimensioni del kernel rispetto all’output. Ridurre le dimensioni del kernel rispetto all’input. Ridurre le dimensioni del kernel rispetto all'output. Incrementare le dimensioni del kernel rispetto all’input. 48. 03. Quale delle seguenti proprietà non è una delle quali si fondano le CNN?. L’invarianza rispetto a traslazioni. L’interazione sparsa. Nessuna delle precedenti. La condivisione dei parametri. |