option
Questions
ayuda
daypo
search.php

ELABORAZIONE DI IMMAGINI - Callegari Christian

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
ELABORAZIONE DI IMMAGINI - Callegari Christian

Description:
ELABORAZIONE DI IMMAGINI - Callegari Christian

Creation Date: 2024/09/03

Category: Others

Number of questions: 231

Rating:(0)
Share the Test:
Nuevo ComentarioNuevo Comentario
New Comment
NO RECORDS
Content:

I recettori di immagine nell'occhio umani si chiamano. Piramidi e cilindretti. Coni e Cilindretti. Piramidi e bastoncelli. Coni e bastoncelli.

Le bande di mach sono. regioni ad intensità uniforme. regioni a quantizzazione uniforme. nessuna delle altre. regioni a riflettanza uniforme.

Quali quantità sommate sono pari a 1. riflettanza e trasmittanza. riflettanza, assorbanza e trasmittanza. contrasto e illuminazione. assorbanza e trasmittanza.

I colori che percepiamo sono determinati da. la luce riflessa. la luce rifratta. la luce assorbita. nessuna delle altre.

Il colore di ciascun pixel dell'immagine digitale è dato da. colore medio delle regioni adiacenti a quella corrispondente al pixel. colore medio della corrispondente regione. nessuna delle altre. colore medio della corrispondente regione approssimato al livello di grigio più vicino tra quelli disponibili.

La risoluzione di un'immagine determina. numero dei pixel. numero e dimnesione dei pixel. nessuna delle altre. dimensione dei pixel.

La scala di grigi di un'immagine è determinata da. contrasto e illuminazione. assorbanza e trasmittanza. riflettanza e illuminazione. riflettanza, assorbanza e trasmittanza.

I pixel con vicinanza N_8 sono quelli di coordinate. N_4 ? N_D. (x + 1, y + 1), (x ? 1, y + 1), (x + 1, y + 1), (x ? 1, y ? 1);. (x + 1, y + 1), (x , y + 1), (x + 1, y + 1), (x , y ? 1);. (x + 1, y), (x ? 1, y), (x, y + 1), (x, y ? 1).

I pixel con vicinanza N_4 sono quelli di coordinate. (x + 1, y), (x ? 1, y), (x, y + 1), (x, y ? 1). nessuna delle altre. (x + 1, y + 1), (x ? 1, y + 1), (x + 1, y + 1), (x ? 1, y ? 1);. (x + 1, y + 1), (x , y + 1), (x + 1, y + 1), (x , y ? 1);.

I pixel con vicinanza N_D sono quelli di coordinate. (x + 1, y + 1), (x , y + 1), (x + 1, y + 1), (x , y ? 1);. (x + 1, y), (x ? 1, y), (x, y + 1), (x, y ? 1). nessuna delle altre. (x + 1, y + 1), (x ? 1, y + 1), (x + 1, y + 1), (x ? 1, y ? 1);.

L'intervallo dinamico di un immagine è il rapporto tra. valore di riflettanza più alto e quello più basso rappresentato. valore di contrasto più alto e quello più basso rappresentato. valore di intensità più alto e quello più basso rappresentato. valore di luminanza più alto e quello più basso rappresentato.

Il numero di bit, b, necessario per rappresentare una immagine M × N a L livelli di grigio è. ML log(N). MNL. nessuna delle altre. MN.

La risoluzione può essere misurata in. pixel*pixel. nessuna delle altre. punti per pollice. pollici*pollici.

un path dal pixel p al pixel q di coordinate (x_p, y_p) e (x_q, y_q). è una sequenza di n + 1 pixel aventi coordinate: (x_0, y_0) (x_1, y_1) . . . , (x_n, y_n). è dato dalla distanza di manatthan tra p e q. nessuna delle altre. è dato dalla distanza euclidea tra p e q.

Il rumore è dato da. nessuna delle altre. Errore di misura del sensore. errore della rappresentazione a monitor. Trasmissione simultanee.

Due pixel, p e q, di S sono detti connessi in S. se la loro distanza Euclidea è minore di quella L_8. se esiste un path. se esiste un path a costo minimo. se esiste un path composto da pixel in S.

Una distanza gode della seguente proprietà. nessuna delle altre. D(p, q) ? D(p, z) + D(z, q). D(p, q) = D(p, z) + D(z, q). D(p, q) > D(p, z) + D(z, q).

La distanza norma 2 è. la distanza di manhattan. nessuna delle altre. ||x_p ? x_q| + |y_p ? y_q||. la distanza Euclidea.

Il bordo esterno di una regione. è costituito dai pixel del background adiacenti al bordo interno. non si definisce. equivale al bordo interno. nessuna delle altre.

Il bordo di una regione R é. nessuna delle altre. Il complemento della regione. l'insieme di punti di R adiacenti a punti nel complemento di R. L'insieme dei punti a massimo contrasto in un'immagine.

La trasformazione per ottenere il negativo di un'immagine a L livello di grigio è. s = L - 1 -r. s = L - 1 + r. s = L - r. nessuna delle altre.

Le tecniche di trasformazione spaziale. processano un pixel alla volta. sono più efficienti di quelle nel dominio della frequenza dal punto di vista computazionale. sono equivalenti a quelle nel dominio della frequeza. sono migliori di quelle nel dominio della frequenza.

s = T (r) è una trasformazione di intensità detta. stretching. thresholding. mappatura. negativo.

la trasformazione detta stretching del contrasto. agisce solo sulle immagini binarie. equivale al thresholding. diminuisce l'intensità dei punti chiari e vice versa. nessuna delle altre.

la trasformazione detta thresholding. trasforma un'immagine a colori in una in bianco e nero. diminuisce il contrasto. trasforma l'immagine in un'immagine binaria. nessuna delle altre.

la maschera di filtraggio. è la maschera di contrasto che si applica durante il filtraggio delle immagini. non esiste. è l'operazione del relativo filtraggio spaziale. è una trasformazione di contrasto.

Le trasformazioni di potenza possono essere espresse dall'equazione. nessuna delle altre. s = c (r+e)?. s = c (1+e)?. s = c ? r.

Le trasformazioni di potenza risultano utili per. creare il negativo di un'immagine. migliorare la visualizzazione delle immagini. aumentare la gamma di un'immagine. aumentare le dimensioni di un'immagine.

Le trasformazioni logaritmiche ottengono. hanno la forma s = c (r+e)?. Diminuiscono il contrasto. un effetto di espansione/compressione della gamma di intensità. sono equivalenti alle trasformazioni di potenza.

la selezione mediante piani di bit. si basa sull'identificazione di immagini i cui pixel sono espressi dallo stesso numero di bit. nessuna delle altre. permettono di creare il negativo dell'immagine, selezionando i 3 piani meno significativi. si basa sull'identificazione dei piani dell'immagine a intensità costante.

Per aumentare il contrasto in maniera "selettiva". si possono usare le trasformazioni lineari a tratti. si possono usare le trasformazioni lineari a pixel. nessuna delle altre. si possono usare le trasformazioni di potenza.

nella selezione mediante piani di bit. ogni piano corrispondente all'immagine originale a cui è applicato un filtro di tipo thresholding con soglia pari al valor medio della gamma di intensità orginale. ogni piano mantiene la gamma di intensità dell'immagine originale. la maggior parte del rumore è contenuta nel piano corrispondente al bit ipù significativo. la maggior parte dell'informazione è contenuta nel piano corrispondente al bit ipù significativo.

nella selezione mediante piani di bit. l'immagine originale può essere ricostruita utilizzando un numero minore di bit, ottenendo un risparmio sull'occupazione di memoria. l'immagine originale non può essere ricostruita. nessuna delle altre. l'immagine originale può essere ricostruita utilizzando i tre piani corrispondenti ai bit meno significativi, ottenendo un risparmio sull'occupazione di memoria.

Un'istogramma "concentrato" nella parte destra del range di intensità corrisponde a. un'immagine ad alto contrasto. un'immagine a basso contrasto. un'immagine scura. un'immagine chiara.

L'equalizzazione di un istogramma si ottiene applicando la trasformazione. nessuna delle altre. Scalatura e traslazione dell'istogramma originale. Normalizzazione e traslazione dell'istogramma originale. Normalizzazione e scalatura dell'istogramma originale.

L'equalizzazione di istogrammi mira a. rendere l'istogramma di un'immagine simile a uno dato. rendere l'istogramma di un'immagine uniforme. comprimere l'immagine. nessuna delle altre.

L'equalizzazione di istogrammi si applica. nel dominio frequenziale. solo alle immagini a colori. nel dominio spaziale. nel dominio trasformato.

La trasformazione spaziale relativa all'equalizzazione di un istogramma è. (L-1) integrale tra 0 e r di (pr(w)dw). (L-1) pr(w)/ps(w). MN integrale tra 0 e r di (pr(w)dw). nessuna delle altre.

l'equalizzazione di istogramma. è il secondo step per la trasformazione specifica di istogramma. è il primo step per la trasformazione specifica di istogramma. nessuna delle altre. non è per niente legata alla specifica di istogramma.

la specifica di istogramma mira a. rendere l'istogramma di un'immagine simile a uno dato. nessuna delle altre. comprimere l'immagine. rendere l'istogramma di un'immagine uniforme.

la specifica di istogramma implica. il calcolo di una trasformazione inversa. il calcolo dell'istogramma dell'immagine di input. tutte le altre. la conoscenza dell'istogramma di output desiderato.

l'elaborazione locale dell'istogramma serve per migliorare. solo una porzione dell'immagine. solo una porzione dell'istogramma. nessuna delle altre. solo alcune componenti frequenziali.

Le tecniche basate su media/varianza richiedono. nessuna delle altre. semplicemente l'immagine. il calcolo dell'istogramma dell'immagine di input. il calcolo dell'istogramma dell'immagine di output.

l'elaborazione tramite le statistiche dell'immagine. si possono usare anche per migliorare il contrasto localmente. si possono usare solo per migliorare il contrasto globalmente. servono per effettuare la specifica dell'istogramma. servono per equalizzare l'istogramma.

quale tecnica risulta opportuna per migliorare un'immagine con un buon livello di dettaglio nella parte scura e uno scarso livello di dettaglio nella parte chiara. tecniche locali basate sulle statistiche dell'immagine. sharpening. specifica di istogramma. equalizzazione di istogramma.

Nell'operazione di convoluzione. bisogna "ribaltare" il filtro. nessuna delle altre. si applica direttamente il filtro all'immagine. si effettua la moltiplicazione degli elementi diagonali del filtro con i pixe e si lasciano inalterati gli altri.

Il padding. è necessario prima della correlazione. tutte le altre. è necessario anche nel caso 1D. è necessario prima della convoluzione.

Nell'operazione di correlazione. si effettua la moltiplicazione degli elementi diagonali del filtro con i pixe e si lasciano inalterati gli altri. nessuna delle altre. si applica direttamente il filtro all'immagine. bisogna "ribaltare" il filtro.

Per definire un filtro spaziale bisogna necessariamente specificare. nessuna delle altre. solo se si tratta di convoluzione o correlazione. solo l'operazione da effettuare. solo i coefficienti della maschera.

Le operazioni che posso effettuare con un filtro spaziale sono esclusivamente. convoluzione e correlazione. nessuna delle altre. correlazione. convoluzione.

L'operazione di convoluzione e correlazione. nessuna delle altre. sono complementari. sono l'una l'inverso dell'altra. sono equivalenti.

lo sharpening. si basa sulla media pesata. si basa sull'operazione di derivazione. si basa sull'operazione di convoluzione. si basa sull'operazione di integrazione.

I filtri basati sul laplaciano. nessuna delle altre. evidenziano i dettagli. non sono isotropici. riducono il rumore.

i filtri a media pesata. servono per lo sharpening. sono analoghi al laplaciano. evidenziano il rumore. nessuna delle altre.

lo smoothing. è l'opposto dello sharpening. equivale al thresholding. si può realizzare con il laplaciano. evidenzia i contorni.

Un filtro è isotropico se. se può essere ribaltato prima dell'applicazione. nessuna delle altre. se è una derivata seconda. ruotare e filtrare è equivalente a filtrare e ruotare.

il filtraggio highboost. è un caso di unsharp mask. serve per esaltare i livelli chiari. serve per esaltare i livelli scuri. serve per esaltare i colori.

il fltro unsharp mask. prevede la sfocatura dell'immagine. ottiene la sfocatura dell'immagine. è il contrario dello sharpening dell'immagine. tutte le altre.

il fltro unsharp mask. si basa sulla media pesata. è il contrario dello sharpening dell'immagine. effettua lo sharpening dell'immagine. nessuna delle altre.

Il gradiente. serve per lo smoothin. nessuna delle altre. è analogo al laplaciano. si basa sulle derivate seconde.

Un metodo basati sul gradiente. si basa sull'operazione di derivazione. si basa sull'operazione di integrazione. si basa sull'operazione di convoluzione. si basa sulla media pesata.

Il fenomeno dell'aliasing. non esiste nel caso 2D. dipende dalle dimensioni dell'immagine originale. nessuna delle altre. dipende dalla dimensione del filtro.

L'impulso nel caso 2D. mantiene la proprietò di sifting. nessuna delle altre. è non nullo sempre. assume valori non nulli in 2 punti.

l'aliasing si può ridurre. aumentando il contrasto dell'immagine. sfocando la scena da acquisire. applicando l'unsharp masking. equalizzando lo spettro.

l'effetto Moirè. dipende dal filtro di sharpening. dipende dal filtro di smoothing. nessuna delle altre. dipende dalla dimensione del pixel.

i jaggy si verificano più facilmente. nelle immagini con contorni ben definiti. nelle immagini sfocate. nelle immagini a colori. nessuna delle altre.

l'aliasing può dipendere da. rimpicciolimento dell'immagine. ingrandimento dell'immagine. tutte le altre. sottocampionamento.

L'aliasing spaziale. non dipende dal campionamento. si verifica quando il "dettaglio" dell'immagine e minore rispetto a un pixel del sistema di acquisizione. è tipico dei casi in cui il numero di frame al secondo è troppo basso. nessuna delle altre.

L'equazione che descrive il filtraggio nel dominio della frequenza. g(x,y) = IDFT(H(u,v)). g(x,y) = IDFT(H(u,v)F(u,v)). g(x,y) = DFT(H(u,v)F(u,v)). nessuna delle altre.

la funzione di trasferimento del filtro in frequenza è normalmente. non simmetrica. simmetrica. dispari. pari.

Per avere un'immagine di output reale (nel filtraggio in frequenza) si deve avere. H reale e simmetrica. H reale e f reale. H simmetrica e reale e f reale. f reale.

Un filtro passa basso. sfoca l'immagine. nessuna delle altre. schiarisce l'immagine. migliora il dettaglio.

Un filtro passa alto. migliora il dettaglio. nessuna delle altre. sfoca l'immagine. schiarisce l'immagine.

Il filtraggio nel dominio della frequenza. agisce sullo spettro dell'immagine di input. agisce solo sulle frequenze diverse da 0. nessuna delle altre. agisce sull'istogramma dell'immagine.

il fenomeno del ringing si evidenzia. nel dominio spaziale. nel dominio trasformato. nei filtri pari. nei filtri dispari.

il fenomeno del ringing è dovuto. alle discontinuità introdotte dal padding in frequenza. alle discontinuità dell'immagine. nessuna delle altre. alle discontinuità introdotte dal padding spaziale.

l'errore di wraparound, date due funzioni di A valori ciascuna si può evitare con un padding lungo. 2A-1. A. A-1. 2A.

l'errore di wraparound. è dovuto alla vicinanza dei periodi. tutte le altre. si può evitare con lo zero padding. riguarda la convoluzione circolare di funzioni periodiche.

lo zero padding introduce. una parte nera. nessuna delle altre. una parte a intensità media. una parte bianca.

la moltiplicazione di un'immagine per 1^(x+y). serve per rendere pari la trasformata. nessuna delle altre. serve per rendere dispari la trasformata. serve per centrare la trasformata.

la moltiplicazione di un'immagine per (-1)^(x+y). serve per centrare la trasformata. serve per rendere dispari la trasformata. nessuna delle altre. serve per rendere pari la trasformata.

I filtri zero-phase shift. lasciano inalterato il rapporto tra parte reale e parte immaginaria. trattano in maniera identica parte reale e parte immaginaria. non hanno effetto sulla fase. tutte le altre.

Un filtro passa alto si può ottenere. con la differenza di filtri gaussiani. con la somma di filtri gaussiani. con un filtro gaussiano. nessuna delle altre.

Il livello di dettaglio quando si usa un filtro low-pass. aumenta all'aumentare della frequenza di cut-off. diminuisce all'aumentare del raggio del cerchio sullo spettro. diminuisce all'aumentare della frequenza di cut-off. nessuna delle altre.

i filtri low-pass ideali. tagliano tutte le frequenze superiori alla frequenza di cut-off. non sono realizzabili. tutte le altre. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0.

i filtri low-pass di Butterworth. tagliano tutte le frequenze superiori alla frequenza di cut-off. nessuna delle altre. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0. non sono realizzabili.

i filtri low-pass gaussiani. non sono realizzabili. nessuna delle altre. tagliano tutte le frequenze superiori alla frequenza di cut-off. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0.

La potenza catturata da un fitro low-pass ideale. nessuna delle altre. aumenta all'aumentare della frequenza di cut-off. diminuisce all'aumentare del raggio del cerchio sullo spettro. diminuisce all'aumentare della frequenza di cut-off.

La sfocatura. diminuisce all'aumentare del raggio del cerchio sullo spettro. nessuna delle altre. diminuisce all'aumentare della frequenza di cut-off. aumenta all'aumentare della frequenza di cut-off.

Il filtro di Butterworth tende al filtro ideale. al dimuire dell'ordine. all'aumentare dell'ordine. all'aumentare della dimensione. al diminuire della dimensione.

l'operazione di thresholding applicata dopo un filtro high-pass. migliora i contorni. tutte le altre. riduce eventuali macchie di acquisizione. crea um'immagine binaria.

i filtri high-pass ideali. tagliano tutte le frequenze inferiori alla frequenza di cut-off. non sono realizzabili. tutte le altre. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0.

la distorsione dei contorni, in caso di filtraggio high-pass,. nessuna delle altre. diminuisce all'aumentare del raggio del cerchio sullo spettro. diminuisce all'aumentare della frequenza di cut-off. aumenta all'aumentare della frequenza di cut-off.

i contorni, in caso di filtraggio high-pass, sono maggiormente evidenziati. diminuisce all'aumentare del raggio del cerchio sullo spettro. diminuisce all'aumentare della frequenza di cut-off. aumenta all'aumentare della frequenza di cut-off. nessuna delle altre.

i filtri high-pass gaussiani. nessuna delle altre. non sono realizzabili. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0. tagliano tutte le frequenze inferiori alla frequenza di cut-off.

i filtri high-pass di Butterworth. prevedono una transizione brusca tra H(u,v)=1 e H(u,v)=0. tagliano tutte le frequenze inferiori alla frequenza di cut-off. nessuna delle altre. non sono realizzabili.

il filtraggio low-pass migliora le prestazione nel caso di. riconoscimento delle impronte digitali. foto di precisione. nessuna delle altre. riconoscimento automatico del testo.

Il filtraggio omomorfico agisce separatamente su. contrasto e riflettanza. illuminazione e riflettanza. contrasto e illuminazione. parte reale e parte immaginara.

l'enhancement dell'immagine con il laplaciano in frequenza è dato da. antitrasformata dell'immagine laplaciana. antitrasformata del prodotto dell'immagine per l'immagine laplaciana. nessuna delle altre. antitrasformata della somma dell'immagine e dell'immagine laplaciana.

i laplaciano nel dominio della frequenza può essere implementato con il filtro. =4 *pi^2 * (u^2 + v^2). =-4 *pi^2 * (u^2 + v^2). =-4 *pi^2 * (u + v). =-4 *pi^2 * (u^2 + v^2).

I filtri basati sul laplaciano nel dominio della frequenza. non sono isotropici. evidenziano i dettagli. riducono il rumore. nessuna delle altre.

il fltro unsharp mask nel dominio della frequenza. effettua lo sharpening dell'immagine. nessuna delle altre. si basa sulla media pesata. è il contrario dello sharpening dell'immagine.

Il filtraggio omomorfico. definisce un filtro. nessuna delle altre. definisce una maschera. può includere filtri di varia natura.

Il filtraggio omomorfico prevede di calcolare. l'integrale dell'immagine. la derivata dell'immagine. nessuna delle altre. il logaritmo dell'immagine.

Un filtro notch elimina banda in pratica è. un filtro elimina banda con banda molto larga. un filtro spaziale. nessuna delle altre. un filtro elimina banda con banda molto stretta.

Un campo di applicazione "classico" dei filtri notch è. la riduzione del rumore. l'eliminazione dell'effetto Moirè. lo smoothing. nessuna delle altre.

Un filtro notch elimina banda piò essere scritto come. produttoria di filtri passa alto. sommatoria di di filtri passa alto. differenza tra una filtro passa alto e un passa basso. differenza di filtri passa alto.

Un campo di applicazione "classico" dei filtri notch è. la riduzione del rumore. nessuna delle altre. lo smoothing. lo sharpening.

il gamut è. nessuna delle altre. la gamma dei colori visibili a occhio nudo. la gamma di colori prodotta dai monitor RGB. l'intera gamma dei colori.

i recettori dell'occhio detti coni. recepiscono tutti il colore allo stesso modo. nessuna delle altre. si possono dividere in basa al colore che percepiscono. recepiscono solo l'intensità della luce.

Nella sintesi additiva dei colori la mescolanca di rosso verde blu da come risultato. nessuna delle altre. il nero. il magenta. il bianco.

I colori primari sono. rosso verde blu. giallo magenta e ciano. rosso giallo e blu. nessuna delle altre.

I colori web safe sono. tutte le altre. i colori RGB sicuri. 216. rappresentati con 6 cifre esadecimali.

Nel modello RGB full color il nero è dato da. (0,0,0). (127,127,127). (256,256,256). (255,255,255).

Il modello RGB. nessuna delle altre. è principalmente utilizzato nelle stampanti. è equivalente al modello CMY. è quello che meglio approssima il modo di descrivere i colori di un uomo.

Nel modello RGB full color il bianco è dato da. (255,255,255). (0,0,255). nessuna delle altre. (0,0,0).

Nel modello RGB un'immagine è formata da. un'unica immagine con profondità del pixel pari a 24 bit. due immagini monocromatiche e da una maschera di solore. tre immagini monocromatiche. nessuna delle altre.

Il modello RGB è rappresentato da. un cerchio in coordinate cartesiane. un triangolo nello spazio colore. un cubo. nessuna delle altre.

Nel modello HSI, la tonalità è data da. distanza dal bianco. distanza dall'asse veticale. angolo rispetto a un punto di riferimento (da definire). nessuna delle altre.

il modello CMY. è principalmente utilizzato nei monitor. è quello che meglio approssima il modo di descrivere i colori di un uomo. si può ottenere per differenza dal modello RGB. è equivalente al modello RGB.

Il modello HSI. è quello che meglio approssima il modo di descrivere i colori di un uomo. nessuna delle altre. è equivalente al modello CMY. è principalmente utilizzato nelle stampanti.

Nel modello HSI, la saturazione è data da. angolo rispetto all'asse del rosso. nessuna delle altre. distanza dall'asse verticale. distanza dal bianco.

Le componenti nello spazio HSI sono. nessuna delle altre. asse di intensità verticale, lunghezza del vettore verso un punto di colore e angolo con asse del rosso. asse di saturazione verticale, lunghezza del vettore verso un punto di colore e angolo con asse del rosso. asse di tonalità verticale, lunghezza del vettore verso un punto di colore e angolo con asse del rosso.

La tecnica di ripartizione di intensità può produrre. tutte le altre. un'immagino bianco/nero. un'immagine binaria. un'immagine a K colori.

le trasformazioni da intensità a colori sono utilizzate principalmente. per le tecniche di visualizzazione. tutte le altre. per le tecniche di stampa. per le tecniche di acquisizione.

Le immagini a falsi colori sono in realtà. immagini a scala di grigi. immagini HSI. immagini RGB. immagini binarie RGB.

Nel caso più semplice, la ripartizione di intensità produce. un solo canale della corrispettiva immagine HSI. nessuna delle altre. un'immagine binaria. un solo canale della corrispettiva immagine RGB.

Supponiamo di applicare una maschera spaziale che assegna a ogni pixel il valor medio della regione di prossimità. Applicando la maschera a ogni componente di un'immagine a colori o al vettore pixel a colori si ottiene lo stesso risultato. si ottiene un risultato "scalato" di un fattore k. si ottengono risultati distinti. si ottiene un risultato praticamente analogo. si ottiene lo stesso risultato.

le tecniche di trasformazione del colore. agiscono sulle singole componenti di colore. scambiano i colori con i loro complementari. valgono solo per le immagini a falsi colori. nessuna delle altre.

Le tecniche che applicano i metodi "monocromatici" alle singole componenti di colore. sono più efficienti di quelle che lavorano a livello vettoriale. sono sempre più veloci computazonalmente. nessuna delle altre. hanno sempre un equivalente vettoriale.

per migliorare l'intensità di un'immagine full color. il risultato è migliore agendo con il modello HSI. bisogna necessariamente agire sulla componente intensità del modello HSI. nessuna delle altre. agire con il modello HSI è più veloce.

la componente intensità del modelli HSI. nessuna delle altre. ha una discontuinità in corrsipondenza del verde. ha una discontuinità in corrsipondenza del rosso. non ha discontuinità.

lo sharpening di un'immagine full color. deve essere ottenuto sulle singole componenti. nessuna delle altre. si può ottenere con una maschera che prende il valor medio. si può ottenere con il metodo del laplaciano.

per migliorare il contrasto in un'immagine full color si può. modificare l'intensità dei singoli colori con la funzione negativo. modificare l'intensità dei singoli colori con una funzione "z". modificare l'intensità dei singoli colori con una funzione "s". nessuna delle altre.

effettuare lo sharpening di un'immagine full color con una maschera spaziale applicata alle tre componenti RGB. produce un effetto diverso rispetto ad applicare la maschera all'intensità del modell HSI. produce un effetto diverso rispetto ad applicare la maschera alla tonalità del modell HSI. produce lo stesso effetto rispetto ad applicare la maschera alla tonalità del modell HSI. produce lo stesso effetto rispetto ad applicare la maschera all'intensità del modell HSI.

l'immagine complementare di un'immagine full color. si può ottenere prendendo il negativo delle singole componenti di colore. nessuna delle altre. si può ottenere ponendo a zero la componente saturazione. si può ottenere prendendo il negativo della componente saturazione.

Nell'individuazione dei punti isolati di discontinuità si può utilizzare. il laplaciano. il valor medio. la derivata seconda. la derivata prima.

la segmentazione prende in ingresso un'immagine e produce in uscita. la classificazione dell'immagine. degli attributi dell'immagine. nessuna delle altre. porzioni dell'istogramma normalizzato.

la segmentazione può essere descritta formalmente come un processo di. partizionamento dell'immagine nel dominio spaziale. partizionamento dell'immagine nel dominio della frequenza. nessuna delle altre. partizionamento dell'istogramma dell'immagine.

Nell'individuazione dei punti isolati di discontinuità si può utilizzare. un filtro passa alto. un filtro passa basso. un filtro spaziale. nessuna delle altre.

Per l'individuazione di punti isolati di discontuinità, il laplaciano deve essere. isotropico. simmetrico. asimmetrico. non isotropico.

gli edge sono. una variazione di contrasto. una tecnica di segmentazione. nessuna delle altre. un tipo di discontinuità.

i punti isolati sono. una variazione di contrasto. un tipo di discontinuità. nessuna delle altre. una tecnica di segmentazione.

Nell'individuazione di linee di discontinuità orizzontali si può utilizzare. un laplaciano isotropico. una maschera laplaciana a valori positivi nella riga centrale e negativi altrove. una maschera laplaciana con valore positivo nella posizione centrale e negativi altrove. una maschera laplaciana a valori positivi nella colonna centrale e negativi altrove.

Nell'individuazione di linee di discontinuità si può utilizzare. la derivata seconda. il laplaciano. il valor medio. la derivata prima.

il processi di individuazione degli edge è reso critico da. derivata prima con valori negativi. nessuna delle altre. rumore. contorni non rettilinei.

la localizzazione degli edge può essere fatta tramite. fronte di discesa della derivata seconda. zero-crossing della derivata prima. nessuna delle altre. zero-crossing della derivata seconda.

L'applicazione del laplaciano per l'individuazione di linee di discontinuità produce. linee a spessore doppio. linee doppie. linee di spessore corretto. nessuna delle altre.

Nell'individuazione di linee di discontinuità si può utilizzare. un filtro spaziale. nessuna delle altre. un filtro passa basso. un filtro passa alto.

le maschere 2x2 per il calcolo del gradiente non permettono di. individuare la zona chiara. individuare la magnitudo del'edge. nessuna delle altre. individuare la direzione del'edge.

le maschere di sobel. offrono prestazioni leggermente migliori di quelle di prewitt, ma sono computazionalmente più complesse. sono equivalente a quelle di prewitt. permettono di indentificare edge diagonali. nessuna delle altre.

l'individuazione degli edge può essere realizzata tramite. laplaciano. nessuna delle altre. gradiente. sharpening.

le maschere di sobel. permettono di indentificare edge diagonali. sono equivalente a sfocare leggermente l'immagine di cui si calcola la derivata parziale. sono equivalente a quelle di prewitt. nessuna delle altre.

il thresholding dell'immagine migliora l'individuazione degli edge se applicata. prima del gradiente. dopo il gradiente. sia prima che dopo il gradiente. mai.

l'individuazione degli edge può essere tramite gradiente può essere migliorata applicando. thresholding. conversione B/N dell'immagine. sharpening dell'immagine. nessuna delle altre.

la sfocatura dell'immagine migliora l'individuazione degli edge se applicata. dopo il gradiente. sia prima che dopo il gradiente. prima del gradiente. mai.

l'individuazione degli edge può essere tramite gradiente può essere migliorata applicando. sfocatura dell'immagine. conversione B/N dell'immagine. sharpening dell'immagine. nessuna delle altre.

nel metodo di Marr-Hildreth, la componente laplaciana. sfoca l'immagine. rende il metodo isotropico. effettua lo sharpening. individua i punti di edge.

Il terzo step del metodo di Marr-Hildreth. calcola i punti di zero-crossing. calcola il laplaciano. campiona l'immagine. effettua la convoluzione tra immagine e gaussiana.

Nel metodo di Marr-Hildreth, le maschere del LoG possono essere ottenute. campionando la convoluzione dell'immagine per la gaussina. campionando la gaussian. nessuna delle altre. campionando il LoG.

Il metodo di Marr-Hildreth funziona in tutte le direzioni. perché basato sulla derivata prima. come il metodo del gradiente. perché il LoG è isotropico. nessuna delle altre.

nel metodo di Marr-Hildreth, la componente gaussiana. sfoca l'immagine. individua gli edge. effettua lo sharpening. individua i punti di edge.

Rispetto al metodo di Marr-Hildreth, il metodo di Canny. è computazionalmente più presente. presenta meno edge spurii. è più efficace. tutte le altre.

Il secondo step del metodo di Canny. calcola magnitudo e angolo del gradiente. sfoca l'immagine. applica non-maxima suppression. campiona l'immagine.

Il primo step del metodo di Canny. campiona l'immagine. sfoca l'immagine. calcola magnitudo e angolo del gradiente. applica non-maxima suppression.

la sogliatura del metodo di Canny è una sogliatura. che produce due set di edge. tutte le altre. con isteresi. a doppia soglia.

per i punti di edge deboli l'algoritmo di Canny prevede. di considerarli come edge veri. di valutarli tramite un ulteriore processo. di considerarli come falsi positivi. di non considerarli.

Il terzo step del metodo di Canny. sfoca l'immagine. campiona l'immagine. calcola magnitudo e angolo del gradiente. applica non-maxima suppression.

Nel metodo di edge linking con elaborazione locale, due punti sono collegati se. se giacciono sulla stessa linea. se la magnitudo è simile a quella del punto di edge. se magnitudo e direzione sono simili. se fanno parte di una linea chiusa.

Nel metodo di edge linking con elaborazione nelle regioni, i bordi risultano. uguali a quelli reali. inspessiti rispetto a quelli reali. nessuna delle altre. un'approssimazione di quelli reali.

Nel metodo di edge linking con elaborazione locale, due punti sono collegati se. nessuna delle altre. si passa attraverso un'immagine binaria basata su magnitudo e angolo dei pixel dell'immagine di edge. si passa attraverso un'immagine binaria basata su magnitudo e angolo dei pixel dell'immagine di input. si passa attraverso un'immagine binaria basata su magnitudo e angolo dei pixel dell'immagine laplaciana.

Nel metodo di edge linking con elaborazione nelle regioni, i bordi risultano da. combinazione di curve. nessuna delle altre. combinazione di poligono. interpolazione dei punti di edge tramite iperboli.

La trasformata di hough. è un operatore globale. è un operatore locale. è una maschera di smoothing. è una maschera di sharpening.

la trasformata di hough permette di indivduare gli edge. nessuna delle altre. a partire dall'immagine binaria dei contorni. a partire dall'immagine originale. a partire dall'immagine laplaciana.

L'individuazione degli edge tramite trasformata di Hough. fa uso anche di altri metodi di edge detection. è una tecnica di edge detection. permette di individuare edge rettilinei. nessuna delle altre.

La trasformata di hough. nessuna delle altre. permette di raggruppare, ad esempio, rette basandosi sulla direzione. non permette di raggruppare, ad esempio, curve basandosi sulla direzione. non permette di raggruppare, ad esempio, rette basandosi sulla direzione.

La trasformata di hough. è indipendente dal metodo di edge detection utilizzato. deve essere applicata dopo il metodo di Canny. deve essere applicata dopo il metodo di Marr-Hildreth. deve essere applicata dopo il metodo del gradiente.

Nelle immagini a colori la segmentazione. è più intuitiva nel dominio HSI. offre prestazioni migliori nel piano HSI. nessuna delle altre. può essere effettuata solo nel dominio RGB.

Nell'individuazione degli edge nelle immagini a colori, il calcolo del gradiente "vettoriale". offre prestazioni uguali al calcolo del gradiente sulle singole componenti. offre prestazioni migliore del calcolo del gradiente sulle singole componenti. risulta troppo complesso. offre prestazioni peggiori del calcolo del gradiente sulle singole componenti.

Nelle immagini a colori la segmentazione. serve per individuare regioni con colori in un dato range. permette di individuare i colori primari nel modello RGB. equivale a separare i piani di diversi colori. nessuna delle altre.

Nelle immagini a colori RGB la segmentazione. nessuna delle altre. separa l'immagine in piani di intensità distinta. permette di individuare i tre colori primari. non è effettuabile, data la natura vettoriale delle immagini.

Nelle immagini a colori la segmentazione. offre prestazioni migliori nel piano HSI. può essere effettuata solo nel dominio RGB. nessuna delle altre. offre prestazioni migliori nel modello RGB.

L'individuazione degli edge nelle immagini a colori. deve essere eseguita sulle singole componenti di colore e poi combinata insieme. non può essere eseguita tramite il metodo del gradiente. può essere eseguita tramite il metodo del gradiente. deve essere eseguita sulle singole componenti HSI e poi combinata insieme.

Nell'individuazione degli edge nelle immagini a colori, il calcolo del gradiente sulle singole componenti. offre prestazioni uguali al calcolo del gradiente vettoriale. risulta troppo complesso. offre prestazioni peggiori del calcolo del gradiente vettoriale. offre prestazioni migliore del calcolo del gradiente vettoriale.

Nella compressione delle immagini si mira a. ridurre la dimensione in pixel dell'immagine. ridurre la ridondanza. nessuna delle altre. ridurre il numero di livelli di intensità.

la ridondanza relativa dei dati dipende da. informazione irrilevante dell'immagine originale. ridondanza spaziale dell'immagine originale. codifica dell'immagine originale. rapporto di compressione.

il rapporto di compressione. è il rapporto tra codifica dell'immagine originale e compressa. è il rapporto tra numero di livelli di intensità dell'immagine originale e compressa. è il rapporto tra risoluzione dell'immagine originale e compressa. è il rapporto tra dimensione dell'immagine originale e compressa.

la ridondanza nelle immagine può essere. ridondanza della codifica. informazione irrilevante. ridondanza spaziale. tutte le altre.

nella compressione dei cartoni animati si può sfruttare. nessuna delle altre. informazione inutile. ridondanza spaziale. ridondanza della codifica.

un codice a lunghezza variabile può essere utile in. può essere utile nel caso di immagini con regioni a intensità costanta. può essere utile nel caso di strutture nascoste nell'immagine. immagini con pochi livelli di intensità distinti. nessuna delle altre.

i codici run-length. può essere utile nel caso di strutture nascoste nell'immagine. nessuna delle altre. può essere utile in caso di informazione irrilevante. può essere utile nel caso di immagini con regioni a intensità costanta.

un codice a lunghezza variabile è inutile in. nessuna delle altre. immagini a colori con pochi colori. immagini con solo 3 livelli di grigio. può essere utile nel caso di immagini con tante regioni a intensità costanta.

L'entropia di un'immagine è una misura della quantità di ... dell'immagine. informazione. livelli di grigio. pixel. colori.

dati k eventi, l'informazione è massima per. evento certo. evento impossibile. eventi equiprobabili. nessuna delle altre.

il rapporto segnale rumore. è maggiore nelle immagini a scala di grigio. è maggiore nelle immagini a colori. dipende dal quadrato della somma tra rumore e immagine. è una misura di fedeltà dell'immagine compressa.

L'uso dei criteri oggettivi nella valutazione della fedeltà di un metodo di compressione. è idoneo solo per immagini RGB. è computazionalmente troppo oneroso per cui si ricorre spesso a criteri soggettivi. nessuna delle altre. è meglio dell'uso di criteri soggettivi.

il codice di Huffman. codifica una stringa di caratteri alla volta. è lossless. nessuna delle altre. assegna codici di lunghezza uguale a tutti i simboli.

la codifica di huffman. si basa sulla costruzione di una sorta di dizionario. è quasi ottimale nel caso di codifica di un simbolo alla volta. assegna codici più lunghi ai simboli men probabili. tutte le altre.

la codfica di Huffman. nessuna delle altre. assegna codici di lunghezza uguale a tutti i simboli. codifica una stringa di caratteri alla volta. è a lunghezza variabile.

un codec è un device/software che effettua. correlazione e correlazione inversa. convoluzione e convoluzione inversa. codifica e decodifica. compressione e decompressione.

il codice di Huffman. richiede la conoscenza delle probabilità di occorrenza dei simboli di sorgente. assegna codici di lunghezza uguale a tutti i simboli. nessuna delle altre. codifica una stringa di caratteri alla volta.

la codifca di golomb. è uno degli step richiesti dal codec di Huffman. è computazionalmente più semplice della codifica di Huffman. nessuna delle altre. codifica una stringa di caratteri alla volta.

La codifica di Golomb richiede. nessuna delle altre. il calcolo di una somma e di un modulo. il calcolo di un quoziente e di una somma. il calcolo di un quoziente e di un modulo.

la codifica aritmetica. calcola una dizionario di tutti i simboli dell'alfabeto. genera codici a blocco. teoricamente raggiunge il limite di Shannon. nessuna delle altre.

la codifica aritmetica. non raggiunge il limite di Shannon. calcola una dizionario di tutti i simboli dell'alfabeto. genera codici non a blocco. nessuna delle altre.

Prima di tutto il JPEG trasforma l'immagine in ingresso in un'immagine. HSI. RGB. CMY. YUV.

nel JPEG, la codifica run-length è applicata a. tutte le componenti quantizzate. componenti AC. tutte le componenti trasformate. componenti DC.

Tra le differenze introdotte da JPEG2000 rispetto a JPEG c'è. Trasformata a seno discreto. Trasformata di Fourier. trasformata wavelet. nessuna delle altre.

La modalità JPEG ottimale per i siti web. sequenziale. lossless. progressiva. gerarchica.

Il JPEG elimina principalmente. dati ad alta frequenza. nessuna delle altre. dati colore. dati a bassa frequenza.

la codifica entropica applicata nel JPEG. Golomb. nessuna delle altre. Huffman. aritmetica.

nel JPEG i coefficienti DC sono codificati. DPCM. con codifica aritmetica. LZW. run-length.

La modalità di default del JPEG è. gerarchica. lossless. sequenziale. progressiva.

i coefficienti delle matrici usate nella fase di quantizzazione sono basati su. probabilità a priori dei livelli di intensità. studi psicofisici. Trasformata a coseno discreto. codifica entropica.

Il JPEG offre prestazioni migliori su. nessuna delle altre. immagini binarie RGB. immagini a colori. immagini a scala di grigio.

Tra le altre fasi, Il JPEG ha una fase di. Trasformata di Fourier. nessuna delle altre. codifica entropica. Trasformata a seno discreto.

Il JPEG si basa, tra le altre, su. Trasformata di Fourier. il fatto che i dati cambiano lentamente nell'immagine. nessuna delle altre. Trasformata a seno discreto.

Il JPEG si basa, tra le altre, su. Trasformata di Fourier. nessuna delle altre. Trasformata a seno discreto. Trasformata a coseno discreto.

L'aspetto "a blocchi" delle immagini jpeg fortemente compresse è dovuto a. la trasformata DCT viene eseguita su blocchi 8x8 dell'immagine. fase di quantizzazione. la trasformata DCT viene eseguita indipendentemente sui vari blocchi dell'immagine. nessuna delle altre.

la maggior parte di "perdita" nel JPEG si ha durante la fase di. codifica entropica. Trasformata a coseno discreto. nessuna delle altre. quantizzazione.

il watermarking robusto deve essere. privato. resistente, tra l'altro a stampa e scansione. pubblico. indipendente dal range di colori.

la tecnica LSB. sostituisce il primo bit del livello di intensità di ogni pixel. sostituisce l'ultimo byte del livello di intensità di ogni pixel. sostituisce il primo byte del livello di intensità di ogni pixel. sostituisce l'ultimo bit del livello di intensità di ogni pixel.

la steganografia consiste nel. apporre un watermark sull'immagine. nessuna delle altre. nascondere un messaggio in un'immagine. apporre una firma digitale sull'immagine.

La steganografia può essere. nessuna delle altre. iniettiva o generativa. diretta o indiretta. attiva o passiva.

la steganografia sfrutta. il range di colori. la ridondanza. nessuna delle altre. la compressione.

la steganografia iniettiva. inserisce il messaggio nei metadata dell'immagine. genera un'imamgine in cui inserire il messaggio. inserisce il messaggio in un'immagine pre-esistente. nessuna delle altre.

il messaggio steganografico. nessuna delle altre. viene trasmesso in chiaro. viene firmato digitalmente. viene anche criptato.

il watermarking può essere. visibile. in un file di "accompagnamento2 dell'immagine. nessuna delle altre. nella firma digitale.

il watermarking deve essere. nessuna delle altre. facilmente rimovibile. resistente agli attacchi. invisibile.

il watermarking può essere. privato o pubblico. attivo o passivo. iniettivo o generativo. diretto o indiretto.

il watermarking può essere applicato. nella fase di quantizzazione. nel dominio della trasformata. durante la codifica entropica. nessuna delle altre.

Report abuse