AREA 1_1_15 PARTE 2
|
|
Title of test:
![]() AREA 1_1_15 PARTE 2 Description: INTELL ART E BIAS |



| New Comment |
|---|
NO RECORDS |
|
Qual è la conseguenza principale del fatto che l'IA operi in modalità "non visibile"?. Il computer consuma molta più banda internet. Gli utenti devono fidarsi dei risultati senza poterne verificare il processo logico. I siti web diventano tutti di colore nero. Non è possibile usare l'IA sugli smartphone. Nel contesto della protezione dei dati, perché la "scatola nera" può essere un problema?. Perché cancella i dati personali ogni ora. Perché rende difficile capire come i dati dell'utente vengono elaborati per arrivare a un profilo specifico. Perché impedisce di salvare i file in formato PDF. Perché richiede una password diversa per ogni ricerca. Un utente qualificato DigComp 2.2, davanti a un risultato di un'IA "scatola nera", dovrebbe: Accettarlo come verità assoluta perché i computer non sbagliano. Essere consapevole che il risultato è frutto di processi non trasparenti e potrebbe contenere errori. Disinstallare immediatamente il browser. Cercare di aprire fisicamente il case del PC per vedere l'algoritmo. Cosa si intende per "opacità algoritmica"?. La scarsa luminosità del monitor durante le ricerche. L'impossibilità o la difficoltà di comprendere il funzionamento di un algoritmo di IA. Un tipo di virus che rende le finestre del browser trasparenti. Una funzione per nascondere i file segreti. Se un'IA per il calcolo del credito bancario rifiuta un prestito, la natura "black box" impedisce di: Stampare la ricevuta del rifiuto. Identificare con precisione quali parametri hanno pesato maggiormente sulla decisione negativa. Usare il bancomat per i successivi dieci giorni. Accedere al sito della banca. Perché gli algoritmi di "Machine Learning" sono spesso delle scatole nere?. Perché imparano dai dati creando correlazioni statistiche troppo complesse per una semplice interpretazione umana. Perché vengono criptati con una chiave che nessuno possiede. Perché i dati di addestramento vengono cancellati dopo l'uso. Perché funzionano solo su supercomputer governativi. Qual è il legame tra "scatola nera" e responsabilità (accountability)?. Nessuno, la responsabilità è sempre dei server. La mancanza di trasparenza rende difficile attribuire la responsabilità in caso di decisioni errate o dannose. La scatola nera aumenta la responsabilità dell'utente finale. Se l'IA è una scatola nera, la responsabilità cade sul produttore del monitor. In un'analisi critica basata su DigComp 2.2, l'impossibilità di "ispezionare" un algoritmo implica che: L'algoritmo è sicuramente perfetto. Potrebbero esserci errori sistematici o discriminazioni nascoste che non possono essere rilevate facilmente. Bisogna smettere di usare internet per scopi professionali. L'utente deve inviare una lettera di reclamo al Ministero. Quale di questi approcci aiuta a mitigare il problema della "scatola nera"?. L'aumento della velocità del processore (CPU). L'adozione di standard di "trasparenza algoritmica" e audit esterni sui modelli di IA. L'uso di tastiere ergonomiche. La pulizia regolare della cronologia dei cookie. La natura di "scatola nera" dell'IA è spesso dovuta a: Un errore di programmazione comune a tutti i software. La complessità matematica dei modelli (come le reti neurali profonde) che processano milioni di variabili. Una scelta estetica dei designer di interfacce. La necessità di risparmiare memoria RAM. Se un'app di navigazione (come Google Maps) cambia improvvisamente il percorso, in un sistema "scatola nera" l'utente: Vede apparire sullo schermo tutto il codice di programmazione. Segue il nuovo percorso senza conoscere i calcoli precisi che hanno portato alla deviazione. Deve spegnere il telefono per resettare l'algoritmo. Può modificare manualmente la velocità dei satelliti. La "scatola nera" impedisce all'utente di: Vedere il risultato finale della ricerca. Comprendere i passaggi intermedi che l'IA ha compiuto per arrivare a un risultato. Cliccare sui link suggeriti. Usare il browser in modalità a schermo intero. Cosa significa che le modalità operative dell'IA sono "non visibili"?. Che il software è stato cancellato dal disco rigido. Che i processi logici interni non sono mostrati all'utente durante l'esecuzione. Che bisogna usare degli occhiali speciali per vedere l'algoritmo. Che il computer funziona solo a monitor spento. Un sistema di IA "trasparente" è l'opposto di: Un sistema operativo Windows. Un sistema a "scatola nera". Una connessione Wi-Fi protetta. Un monitor ad alta risoluzione. Quando l'IA di un social sceglie di non mostrarti un contenuto, questo avviene: Tramite un avviso sonoro che spiega la scelta. Attraverso processi algoritmici non visibili all'utente. Perché l'autore del post ti ha bloccato fisicamente il computer. Solo se la batteria del dispositivo è inferiore al 20%. Qual è l'elemento che rende l'IA una "scatola nera"?. La tastiera del PC. La complessità dei modelli matematici interni. Il cavo di alimentazione del server. La marca del sistema operativo. Se un'IA genera un'immagine partendo da un testo, l'utente vede come i "neuroni artificiali" hanno combinato i pixel?. Sì, in una finestra separata chiamata "Log". No, riceve solo l'immagine finale (output). Solo se usa un software di grafica professionale. Sì, ma solo se l'immagine è in bianco e nero. Perché il concetto di "scatola nera" è legato alla fiducia dell'utente?. Perché l'utente deve fidarsi di un sistema di cui non può verificare la logica interna. Perché la scatola nera protegge i risparmi in banca dell'utente. Perché l'utente deve dare la sua password alla scatola nera. Perché se l'utente non si fida, l'IA smette di funzionare. In un contesto lavorativo, usare un'IA "scatola nera" per valutare i dipendenti può essere rischioso perché: Il software costa troppo. Non è possibile spiegare ai dipendenti i criteri esatti della loro valutazione. I dipendenti potrebbero cancellare l'algoritmo per errore. L'IA valuta solo chi usa il mouse con la mano sinistra. Cosa si intende per "decifrabilità" di un algoritmo?. La capacità di tradurre il software in tutte le lingue del mondo. La possibilità per un esperto di ricostruire la logica dietro una decisione dell'IA. Il numero di pixel presenti in un'icona. La velocità con cui l'IA risponde ai comandi vocali. Se un'IA commette un errore sistematico, la "scatola nera" rende: Più facile correggerlo istantaneamente. Più difficile individuare l'origine esatta del malfunzionamento logico. Obbligatorio cambiare computer. Impossibile spegnere il software. La consapevolezza della "scatola nera" suggerisce all'utente di: Non usare mai l'IA. Verificare sempre le informazioni critiche generate dall'IA con fonti esterne. Copiare tutto il contenuto dell'IA senza porsi domande. Usare l'IA solo per giocare. Quale di queste piattaforme è nota per utilizzare algoritmi "scatola nera" nel suggerire contenuti?. La calcolatrice di sistema. TikTok. Un editor di testo semplice (Notepad). La gestione file (Esplora risorse). Cosa accadrebbe se un algoritmo di IA non fosse una "scatola nera"?. Sarebbe molto più lento. Sarebbe possibile tracciare e spiegare ogni passaggio logico della sua decisione. Non potrebbe connettersi a internet. Sarebbe visibile solo ai programmatori della Microsoft. Il "diritto alla spiegazione" (previsto da alcune normative come il GDPR) contrasta con: La velocità dei processori moderni. L'opacità dei sistemi di IA a "scatola nera". Il costo della connessione internet. L'uso di browser open-source. Perché la "scatola nera" è considerata una sfida per la democrazia digitale?. Perché i server delle IA si trovano in paesi lontani. Perché le decisioni che influenzano l'opinione pubblica sono prese da algoritmi non trasparenti. Perché l'IA impedisce alle persone di votare online. Perché la scatola nera consuma troppa carta per le stampe. Un utente qualificato DigComp 2.2 sa che un'IA "scatola nera" potrebbe dare risultati diversi per query identiche perché: Il computer si sta surriscaldando. L'algoritmo elabora variabili di contesto e dati in tempo reale non visibili all'esterno. L'IA ha cambiato idea per noia. L'utente non ha aggiornato i driver della stampante. Qual è la relazione tra "Bias" (distorsioni) e "Scatola Nera"?. La scatola nera elimina automaticamente tutti i bias. La scatola nera può nascondere la presenza di bias, rendendoli difficili da rilevare e correggere. I bias si trovano solo fuori dalla scatola nera. Non c'è alcuna relazione tra i due concetti. Nello sviluppo di un'IA, ridurre la natura di "scatola nera" spesso comporta: Un aumento enorme della velocità di calcolo. Un compromesso (trade-off) tra l'accuratezza del modello e la sua interpretabilità. L'obbligo di usare solo monitor di grandi dimensioni. La cancellazione di metà dei dati di addestramento. In conclusione, secondo il DigComp 2.2, comprendere l'IA come "scatola nera" significa: Rifiutare la tecnologia digitale moderna. Adottare un atteggiamento consapevole e critico verso l'automazione dei processi informativi. Imparare a programmare in linguaggio macchina. Comprare solo software con licenza a vita. Cosa si intende per "bias" (distorsione) in un sistema di Intelligenza Artificiale?. Una velocità di connessione superiore alla media. Un errore o un pregiudizio che porta l'IA a dare risultati ingiusti o parziali. Un componente hardware necessario per l'accensione. Il nome del creatore del software. Se un'IA mostra solo immagini di uomini quando cerchi "chirurgo", cosa sta manifestando?. Una precisione scientifica assoluta. Uno stereotipo di genere (bias). Un guasto al monitor a colori. Una mancanza di spazio nel database. Da dove derivano solitamente i pregiudizi di un'Intelligenza Artificiale?. Dalla polvere accumulata sui server. Dai dati utilizzati per addestrare l'algoritmo, che possono contenere pregiudizi umani. Dal tipo di tastiera usato per scrivere il codice. Da un virus informatico preso su internet. Un'IA può essere considerata "neutrale" al 100%?. Sì, perché è una macchina e non ha sentimenti. No, perché riflette i dati e le scelte di chi l'ha programmata e addestrata. Solo se viene usata di giorno. Solo se non è connessa a internet. Quale di questi è un esempio di pregiudizio etnico in un'IA?. Il software si blocca se l'utente parla una lingua straniera. Un sistema di riconoscimento facciale che fatica a identificare persone con certi tratti somatici. La stampante che finisce l'inchiostro nero. Lo smartphone che si scalda troppo. Perché i "dati storici" possono causare bias in un'IA per le assunzioni?. Perché i file vecchi occupano troppa memoria. Perché se in passato sono state favorite certe categorie, l'IA imparerà a ripetere quell'ingiustizia. Perché i dati storici sono scritti in un linguaggio di programmazione obsoleto. Perché l'IA non sa leggere le date prima del 2000. Cosa dovrebbe fare un utente consapevole (DigComp 2.2) se nota un pregiudizio in un risultato dell'IA?. Ignorarlo, perché l'IA ha sempre ragione. Valutare criticamente il risultato e, se possibile, segnalare la distorsione. Formattare immediatamente il computer. Usare solo motori di ricerca cartacei. Se un'IA generativa di testi descrive sempre gli infermieri al femminile e i medici al maschile: Sta fornendo un'informazione statistica infallibile. Sta replicando uno stereotipo di genere presente nei suoi dati. È colpa della connessione Wi-Fi lenta. Il software deve essere aggiornato alla versione "Professional". Il termine "distorsione algoritmica" si riferisce a: Un difetto dei pixel sullo schermo. Un errore sistematico nei processi di un algoritmo che favorisce o penalizza ingiustamente un gruppo. La capacità del computer di piegare i cavi elettrici. Un modo per rendere le immagini più luminose. In che modo la scelta dei programmatori (scelta dei dati) influisce sul bias?. Non influisce, l'IA decide tutto da sola in modo casuale. Se i programmatori usano dati poco vari o parziali, l'IA erediterà quei limiti. I programmatori devono solo scegliere il colore dell'icona del programma. Scegliendo dati corretti, l'IA consuma meno batteria. Qual è il rischio di utilizzare un'IA con bias in ambito giudiziario (es. per prevedere la recidiva)?. Che il software sia troppo costoso per lo Stato. Che vengano perpetuate discriminazioni sistemiche contro determinate etnie o gruppi sociali. Che il giudice non sappia usare il mouse. Che le sentenze vengano stampate con caratteri troppo piccoli. Cosa si intende per "de-biasing" (rimozione delle distorsioni) nell'IA?. Pulire il case del computer con aria compressa. Applicare tecniche per identificare e ridurre i pregiudizi nei modelli di IA. Disattivare completamente l'intelligenza artificiale. Cambiare la password del router ogni mese. Secondo il DigComp 2.2, la consapevolezza dei bias serve a: Rifiutare ogni tipo di progresso tecnologico. Mitigare il rischio di prendere decisioni sbagliate basate su informazioni digitali distorte. Imparare a programmare in linguaggio Python. Aumentare la RAM del proprio dispositivo. Un set di dati di addestramento "non rappresentativo" porta a: Un'IA che funziona più velocemente del normale. Risultati accurati solo per il gruppo predominante nel set di dati e imprecisi per gli altri. La cancellazione automatica della licenza del software. Un risparmio di spazio sul cloud. Se un'IA conversazionale risponde in modo offensivo verso una minoranza, la causa principale è spesso: La cattiva educazione dell'utente che ha fatto la domanda. La presenza di linguaggi d'odio o tossici nei testi usati per l'addestramento. Un surriscaldamento della scheda video. L'uso di un browser non aggiornato. Se un'IA per la generazione di immagini crea solo persone di una specifica etnia quando scrivi "famiglia felice", questo è un esempio di: Risoluzione dell'immagine troppo bassa. Bias (distorsione) di rappresentazione etnica. Errore nel caricamento del file. Un problema della scheda video del monitor. Perché un utente deve essere consapevole degli stereotipi di genere nell'IA?. Per poter cambiare il colore delle icone sul desktop. Per non accettare acriticamente risultati che riflettono pregiudizi sociali comuni. Per aumentare la velocità di navigazione su internet. Per evitare che il computer si spenga improvvisamente. Cosa si intende per "dati di addestramento" nell'IA?. Le istruzioni per pulire il computer. L'insieme di informazioni usate per insegnare all'algoritmo come rispondere. La ginnastica che fanno i programmatori. Il tempo di ricarica della batteria. L'IA può "inventare" pregiudizi da sola dal nulla?. Sì, perché ha una sua coscienza cattiva. No, solitamente li apprende dai dati forniti dagli esseri umani. Solo se il computer è molto vecchio. Solo se non è installato l'antivirus. Quale di questi è un comportamento corretto di un utente DigComp 2.2?. Credere a tutto ciò che dice l'IA perché è una macchina. Mettere in dubbio i risultati dell'IA se sembrano favorire ingiustamente un gruppo. Spegnere il monitor ogni volta che l'IA sbaglia. Usare l'IA solo per fare calcoli semplici. Se un'IA per il riconoscimento vocale non capisce gli accenti regionali, manifesta: Una superiorità linguistica. Un bias linguistico dovuto a dati di addestramento limitati. Un guasto agli altoparlanti. La necessità di cambiare microfono. Un'IA che associa il "successo" solo a persone con un certo abbigliamento è: Un'IA molto elegante. Un'IA influenzata da stereotipi sociali. Un'IA che ha bisogno di più memoria RAM. Un'IA programmata per vendere vestiti. Perché la "diversità" nel team di sviluppo dell'IA aiuta a ridurre i bias?. Perché così il software costa meno. Perché persone con background diversi possono individuare pregiudizi che altri ignorerebbero. Perché l'IA funziona meglio se i programmatori parlano lingue diverse. Perché aumenta la risoluzione del software. Nel DigComp 2.2, la consapevolezza dei bias di etnia serve a: Diventare un esperto di storia delle religioni. Non utilizzare in modo discriminatorio strumenti digitali di sorveglianza o selezione. Navigare solo su siti web stranieri. Cancellare i cookie ogni ora. Cosa succede se un'IA viene addestrata solo con libri scritti 50 anni fa?. Diventa molto più intelligente di un'IA moderna. Rifletterà gli stereotipi e il linguaggio di quell'epoca, ignorando i progressi sociali. Non riuscirà a connettersi al Wi-Fi. Il computer diventerà più lento a causa del linguaggio vecchio. Un algoritmo di IA "equo" (fair) è un sistema che: È gratuito per tutti gli utenti. Cerca di fornire risultati privi di discriminazioni sistematiche tra diversi gruppi. Non richiede l'uso della tastiera. Funziona allo stesso modo su Windows e Mac. Perché è difficile eliminare completamente i bias dall'IA?. Perché i computer sono troppo piccoli. Perché i pregiudizi sono spesso nascosti in modo sottile nei dati prodotti dalla società. Perché l'IA nasconde i suoi pregiudizi in cartelle segrete. Perché i programmatori non hanno tempo di farlo. Quale di questi strumenti aiuta a identificare i bias?. Lo strumento di deframmentazione del disco. Gli audit algoritmici e i test di verifica su campioni di dati diversi. La pulizia dello schermo con un panno umido. L'aggiornamento dei driver della stampante. Cosa si intende per "bias di campionamento"?. Quando l'IA sceglie un campione di musica a caso. Quando i dati usati non rappresentano tutte le categorie di persone in modo proporzionato. Quando il computer non ha abbastanza spazio per salvare i file. Quando l'utente preme il tasto sbagliato. In che modo la "trasparenza dei dati" aiuta a combattere i bias di genere?. Rendendo il monitor più luminoso. Permettendo di verificare se i dati usati per l'addestramento sono bilanciati tra uomini e donne. Obbligando l'IA a mostrare sempre immagini di donne. Nascondendo i dati sensibili degli utenti. Secondo il DigComp 2.2, l'utente esperto sa che l'IA "non è oggettiva". Questo implica che: L'IA mente sempre intenzionalmente. L'IA è un prodotto culturale e tecnico che trasporta i valori di chi la crea. Bisogna smettere di usare Google. Il computer deve essere controllato da un tecnico ogni mese. Il rischio di "automazione del pregiudizio" si riferisce a: L'IA che impara a scrivere commenti offensivi sui social da sola. L'uso di algoritmi per scalare e velocizzare decisioni discriminatorie su larga scala. Il computer che decide di non accendersi se non gli piace l'utente. La stampa automatica di documenti contenenti errori. Quale normativa europea sta cercando di regolare l'IA per ridurre i rischi di bias?. Il regolamento sul roaming telefonico. L'IA Act (Regolamento sull'Intelligenza Artificiale). La legge sulla privacy dei cookie. Il trattato di Schengen. Un utente qualificato che usa l'IA per scrivere un articolo dovrebbe: Copiare e incollare tutto senza modifiche. Verificare che il testo non contenga stereotipi o affermazioni parziali generate dall'algoritmo. Usare solo il font "Arial" per evitare pregiudizi visivi. Chiedere all'IA di non avere bias. In sintesi, la consapevolezza richiesta dal syllabus DigComp 2.2 sul punto 1.1.11 serve a: Diventare un sociologo professionista. Esercitare la cittadinanza digitale in modo critico, etico e responsabile. Risparmiare sull'acquisto di nuovi software. Aumentare il numero di follower sui social. Cosa si intende per "risposta personalizzata"?. Che la risposta è scritta a mano da un operatore. Che il contenuto è adattato alle preferenze o alla cronologia dell'utente. Che la risposta contiene solo il nome dell'utente. Che la risposta viene inviata per posta cartacea. Perché due persone che chiedono "Cosa vedere stasera" a un'IA ricevono suggerimenti diversi?. Perché una delle due ha il computer rotto. Perché l'IA analizza i gusti differenti di ciascun utente. Perché l'IA risponde a caso per non annoiarsi. Perché dipende dall'ora in cui viene fatta la domanda. Quale di questi elementi viene usato dall'IA per personalizzare una risposta?. Il peso del monitor del computer. La cronologia delle interazioni precedenti. Il colore della scrivania dell'utente. La marca della sedia da ufficio. |




