AGGIUNGERE CONTENUTI, SOTTOTITOLI E CO
|
|
Title of test:
![]() AGGIUNGERE CONTENUTI, SOTTOTITOLI E CO Description: SIMULAZIONE E TEST |



| New Comment |
|---|
NO RECORDS |
|
Qual è la differenza principale tra i "Sottotitoli" (Subtitles) tradizionali e i "Sottotitoli per non udenti" (Closed Captions - CC)?. I sottotitoli tradizionali sono a pagamento, i CC sono gratuiti. I sottotitoli tradizionali traducono solo i dialoghi parlati (es. per chi non capisce la lingua); i CC includono anche la descrizione testuale degli effetti sonori importanti (es. [musica di suspense], [porta che sbatte]) per chi non può sentire l'audio. I CC si possono leggere solo usando speciali occhiali 3D. I sottotitoli tradizionali si usano solo su internet, i CC solo in televisione. A chi è rivolta specificamente la tecnologia dell'"Audiodescrizione" (Audio Description) inserita in un video o in un film?. Alle persone sorde che non possono sentire i dialoghi. Alle persone cieche o ipovedenti, poiché consiste in una voce narrante aggiuntiva che, durante le pause dei dialoghi, descrive le azioni visive, i costumi e i cambi di scena essenziali per capire la trama. Esclusivamente agli studenti che stanno imparando una lingua straniera. A chi possiede televisori in bianco e nero. Cos'è una "Trascrizione" (Transcript) in ambito di accessibilità dei file audio, come ad esempio un podcast?. È la conversione del file audio in un file video. È un documento di testo integrale che riporta per iscritto tutte le parole pronunciate nell'audio, rendendo il contenuto accessibile alle persone sorde e indicizzabile dai motori di ricerca. È un riassunto vocale di 10 secondi del podcast. È una traccia audio suonata al contrario per motivi di sicurezza. Perché la pratica di inserire i sottotitoli nei video rientra nei principi dell'"Universal Design" (Progettazione Universale)?. Perché la legge obbliga a tradurre ogni video in almeno 10 lingue. Perché migliora l'esperienza di tutti: oltre ad essere vitali per le persone sorde, i sottotitoli sono utilissimi per chi guarda il video in un ambiente rumoroso o in un luogo pubblico (es. in treno) con l'audio del telefono disattivato. Perché rendono il file video molto più leggero da scaricare. Perché permettono al video di essere riprodotto su schermi quadrati. Cosa succede quando carichi un video su piattaforme moderne come YouTube e attivi i "Sottotitoli automatici"?. La piattaforma invia il video a un team di traduttori umani che lavorano gratis. Un sistema di Intelligenza Artificiale (Riconoscimento vocale / Speech-to-Text) analizza l'audio e genera una traccia di sottotitoli automatica. Tuttavia, spesso contiene errori e necessita di una revisione manuale da parte dell'autore. Il video viene bloccato finché non scrivi tu stesso i sottotitoli a mano. L'audio originale del video viene cancellato definitivamente. Qual è il colore e lo stile raccomandato per i sottotitoli standard per garantirne la massima leggibilità (contrasto visivo) su qualsiasi sfondo del video?. Testo giallo fluo su sfondo trasparente. Testo bianco con un contorno nero marcato (outline) oppure posizionato sopra una banda semitrasparente nera. Testo rosso senza alcuno sfondo. Testo nero su sfondo blu scuro. Perché è sconsigliato affidarsi unicamente ai "Sottotitoli generati automaticamente" (Auto-captions) per garantire l'accessibilità di una lezione scolastica registrata?. Perché consumano troppi Giga di traffico dati. Perché l'IA fatica a riconoscere nomi propri, acronimi tecnici, dialetti o voci sovrapposte, generando frasi senza senso (i cosiddetti "craptions") che rendono impossibile l'apprendimento per uno studente sordo. Perché l'intelligenza artificiale chiede un abbonamento mensile allo studente. Perché i sottotitoli automatici si autodistruggono dopo 24 ore. Vuoi fornire la trascrizione testuale di un'intervista audio. Quale formato di file è il più semplice, universale e raccomandato per distribuire questo testo?. Un file immagine JPG contenente la foto del testo. Un semplice file di testo (.TXT), un file PDF accessibile o una pagina web HTML, in modo che sia facilmente leggibile dagli screen reader dei non vedenti. Un file eseguibile (.EXE). Un archivio compresso (.ZIP) protetto da password. Se un video ha l'acronimo "CC" racchiuso in un piccolo riquadro grafico nel player, cosa significa per l'utente?. Che il video è coperto da Copyright Chiuso. Che sono disponibili i "Closed Captions", ovvero i sottotitoli avanzati per non udenti che l'utente può decidere liberamente di accendere o spegnere tramite le impostazioni del player. Che il video è riservato ai possessori di Carta di Credito (Credit Card). Che il video è a Colori Caldi. Qual è uno strumento basilare, gratuito e integrato per aggiungere e sincronizzare sottotitoli a un video didattico che hai prodotto?. La calcolatrice di Windows. L'editor dei sottotitoli di YouTube Studio, che permette di digitare il testo, regolarne la durata sulla linea temporale (timeline) e associare le parole all'audio visivamente. Microsoft Paint. Il Pannello di controllo della stampante. Qual è l'estensione di file standard più diffusa e universale per salvare e scambiare tracce di sottotitoli indipendenti dal video?. .mp4. .srt (SubRip Subtitle format). È un file di testo puro che contiene un numero sequenziale, i codici temporali di inizio e fine, e il testo del sottotitolo. .doc. .wav. Qual è la differenza tecnica tra "Sottotitoli Chiusi" (Closed Captions) e "Sottotitoli Aperti" (Open Captions / Burned-in)?. I sottotitoli chiusi sono a pagamento, quelli aperti sono gratis. I Closed Captions sono un file di testo separato che il player sovrappone in tempo reale, attivabile e disattivabile dall'utente. Gli Open Captions sono "stampati" e fusi permanentemente all'interno dei pixel (renderizzati) del video stesso e non possono essere spenti. I sottotitoli aperti possono essere letti solo all'aperto, fuori dagli edifici. Non c'è differenza, si tratta dello stesso esatto formato file. Nelle linee guida internazionali sull'accessibilità dei media, come dovrebbero essere indicati i parlanti multipli fuori campo all'interno di un file di sottotitoli CC per non udenti?. Ignorando chi parla e scrivendo solo le parole. Inserendo il nome della persona o il ruolo tra parentesi o con segni speciali prima della battuta (es. ">> MARIO: Ciao a tutti" oppure "[Insegnante] Aprite il libro"). Colorando le parole di ogni persona con tinte fluo diverse senza scriverne il nome. Inviando una foto della persona prima che parli. Per garantire che un alunno sordo abbia il tempo materiale di leggere i sottotitoli senza dover mettere in pausa il video continuamente, quale parametro tecnico bisogna curare in fase di sincronizzazione?. Il volume della voce del doppiatore. Il CPS (Characters Per Second - Caratteri per secondo). Le linee guida suggeriscono di non superare i 15-20 caratteri al secondo e di mantenere il sottotitolo a schermo per una durata minima confortevole. La risoluzione 4K del video. Il formato di esportazione della traccia audio. Stai scrivendo la trascrizione accessibile di un video educativo. Oltre al discorso verbale, cosa devi obbligatoriamente includere nel documento testuale affinché la trascrizione sia pienamente equivalente al video?. Il riassunto della lezione scritto con parole tue. La descrizione testuale delle azioni visive significative e dei testi mostrati a schermo (es. "[Il professore scrive la formula E=mc² sulla lavagna]"). Il link al profilo social dell'insegnante. Esclusivamente le battute parlate, tralasciando completamente le immagini. Per realizzare velocemente una trascrizione base di una lunga riunione audio, quale funzione integrata puoi utilizzare in Microsoft Word (versione Microsoft 365)?. La funzione "Traduci" in latino. La funzione "Dettatura/Trascrizione" (Transcribe), che permette di caricare direttamente un file audio (MP3, WAV) e utilizza il cloud per generare un testo automatico riconoscendo anche l'alternanza dei relatori (Speaker diarization). Lo strumento "Disegno a mano libera". La funzione "Stampa unione". Devi caricare un video su una piattaforma e-learning (LMS come Moodle) e hai a disposizione il file .mp4 del video e il file .vtt dei sottotitoli. Come procedi per unirli nella pagina del corso?. Comprimi entrambi in un file .ZIP e lasci che sia l'alunno a sbrogliarsela da solo. Utilizzi il player HTML5 integrato nell'LMS, caricando il file video nello spazio principale e aggiungendo il file .vtt nell'apposita sezione "Tracce aggiuntive" o "Sottotitoli", affinché il player li mostri sincronizzati. Usi uno strumento per convertire il .vtt in un file audio e lo sovrapponi alla traccia principale. Incolli il testo del .vtt nella descrizione del video senza i tempi. Durante il posizionamento spaziale dei sottotitoli (quando si scelgono i margini nel software di montaggio), a quale errore visivo molto comune bisogna fare massima attenzione?. Fare in modo che i sottotitoli non siano mai dritti ma in diagonale. Evitare che i sottotitoli coprano altre informazioni vitali sovrimpresse a schermo (i cosiddetti "Lower Thirds" o "Sottopancia"), come il nome dell'intervistato, loghi o scritte esplicative del telegiornale. Fare in modo che il sottotitolo copra esattamente la bocca di chi parla. Evitare che i sottotitoli siano scritti in lingua italiana. Stai usando un programma come Adobe Premiere o DaVinci Resolve per creare l'Audiodescrizione di un cortometraggio scolastico. In cosa consiste tecnicamente il tuo lavoro sulla "Timeline" (linea temporale)?. Cancellare la traccia audio originale e sostituirla con la tua voce. Registrare una nuova traccia vocale e "tagliarla" inserendo gli spezzoni descrittivi esclusivamente negli spazi vuoti in cui gli attori non stanno parlando, in modo da creare una seconda traccia audio mixata senza sovrapposizioni fastidiose. Abbassare la luminosità del video per farlo sembrare un programma radiofonico. Inserire un rumore bianco (fruscio) sopra i dialoghi. Se stai revisionando manualmente un file .srt scaricato automaticamente da YouTube, quale programma base del tuo computer è perfettamente in grado di aprirlo per correggerne i testi?. Un editor video professionale da mille euro. Qualsiasi editor di testo puro, come il Blocco Note (Notepad) su Windows o TextEdit su Mac, poiché i file SRT non sono altro che stringhe di testo codificate. Adobe Photoshop. Un software di modellazione 3D. A livello di architettura web e formati avanzati, qual è il vantaggio strutturale del formato WebVTT (.vtt) rispetto al vecchio e semplice formato SubRip (.srt)?. Il formato VTT non contiene testo, ma solo immagini. Il formato WebVTT supporta attributi di styling avanzati e posizionamento spaziale direttamente nel codice di testo (es. align:end position:10%), permettendo di spostare uno specifico sottotitolo in alto a destra se la parte bassa dello schermo è coperta da una grafica. Il formato VTT può essere letto solo da dispositivi mobili iOS. Il formato VTT esegue calcoli matematici come Excel. Secondo le linee guida WCAG (Web Content Accessibility Guidelines) al Livello A, qual è il requisito minimo per i contenuti video pre-registrati (solo video, senza audio) per essere accessibili ai non vedenti?. Deve esserci un avviso acustico che dice "Questo è un video senza audio". È obbligatorio fornire un'alternativa testuale (Trascrizione descrittiva) o una traccia audio che descriva l'intero contenuto visivo del video in modo equivalente. È obbligatorio stampare i fotogrammi del video su carta Braille. Non vi è alcun obbligo, i video senza audio sono considerati decorativi. Per superare la rigidità dell'audiodescrizione standard in cui la voce narrante deve parlare velocissima per infilarsi nelle brevi pause dei dialoghi, quale tecnica avanzata viene impiegata (Spesso richiesta per il Livello AAA delle WCAG)?. Cancellare i dialoghi degli attori per fare spazio alla narrazione. L'Audiodescrizione Estesa (Extended Audio Description). Il player video mette temporaneamente in pausa (congela) il flusso video e l'audio originale, lasciando il tempo alla voce narrante di descrivere l'ambiente con calma, per poi far ripartire la riproduzione normale. Far scorrere il video al doppio della velocità. Usare segnali Morse invece della voce parlata. In un flusso di sviluppo web HTML5, quale specifico tag (elemento DOM) è necessario per iniettare programmaticamente un file WebVTT all'interno del riproduttore <video> in modo che gli screen reader e l'interfaccia lo aggancino correttamente?. Il tag <img>. Il tag <track>, specificando gli attributi kind="captions" o kind="subtitles", srclang="it", e l'attributo src che punta all'URL del file VTT. Il tag <a> con href. Il tag <iframe>. Stai usando un file VTT per sincronizzare una battuta in ritardo. Qual è la formattazione esatta dei marcatori temporali (Timestamp) che devi rispettare per non "rompere" il parsing del file?. Minuti e Secondi testuali (es. "Due minuti e tre secondi -> Ciao"). Il formato rigido ore:minuti:secondi.millisecondi separati da una freccia. (es. 00:01:23.000 --> 00:01:25.500). Usare le coordinate geografiche GPS invece del tempo. I file VTT non usano alcun marcatore temporale. Utilizzi un'API di riconoscimento vocale avanzata (come Whisper di OpenAI) per generare i sottotitoli. Qual è un rischio noto (relativo ai Large Language Models usati come STT) che devi cercare durante la revisione QA (Quality Assurance)?. Che l'API cancelli fisicamente il file video dal tuo hard disk. Il rischio di "Allucinazioni" (Hallucinations): nei momenti di assoluto silenzio o in presenza di forte rumore di fondo, l'IA potrebbe "inventare" intere frasi di senso compiuto che nessuno ha mai pronunciato, inserendole nei sottotitoli. Che l'API cambi i volti delle persone nel video. Che il modello di IA si rifiuti di lavorare dopo le 18:00. In un ambiente di post-produzione (es. Premiere Pro), se la destinazione del video è una sala d'attesa rumorosa o uno schermo social feed (dove i video partono disattivati), quale scelta di esportazione tecnica è indispensabile impostare per i sottotitoli?. Esportarli in un file "Sidecar" .srt e non inserirli nel video. Impostare il render engine su "Burn Captions into Video" (Stampa sottotitoli nel video / Hardsubs). In questo modo il testo altera i valori dei pixel del file MP4, divenendo visibile e ineliminabile a livello grafico, garantendo che i sottotitoli si vedano su qualsiasi dispositivo o piattaforma social senza bisogno di player dedicati. Salvare il video senza sottotitoli e scrivere il testo nel titolo del file. Inserire i sottotitoli all'interno di un codice QR lampeggiante. Per garantire l'accessibilità a utenti sordo-ciechi, la "Trascrizione Descrittiva" (Descriptive Transcript) assume un ruolo ingegneristico cruciale. Perché?. Perché emette suoni ad altissima frequenza. Perché la trascrizione puramente testuale, unendo sia dialoghi che descrizioni visive, è l'unico formato dati che può essere incanalato attraverso un display hardware "Braille Refreshable", permettendo la fruizione tattile autonoma del contenuto multimediale. Perché traduce automaticamente il video in una lingua straniera. Non è utile, un utente sordo-cieco non ha tecnologie per interfacciarsi ai computer. Nello sviluppo di software e-learning, spesso si integrano i video con la "Traduzione in Lingua dei Segni" (Sign Language Interpretation). A livello di compositing video (Muxing), come viene standardizzato questo inserimento?. Inserendo un avatar generato al computer sopra le teste degli speaker. Tramite un riquadro Picture-in-Picture (PiP), solitamente posizionato in basso a destra, sufficientemente grande (almeno 1/6 dell'area dello schermo) da permettere di distinguere chiaramente le espressioni facciali dell'interprete, che sono parte della grammatica dei segni. Sostituendo completamente il video originale con il video dell'interprete. Sfocando il video originale per non distrarre dai segni. Nel campo della SEO (Search Engine Optimization) applicata al web semantico, qual è l'impatto tecnico dell'aggiunta di Trascrizioni e file VTT rispetto al semplice caricamento del video grezzo?. I motori di ricerca non leggono i testi, guardano solo i pixel del video. I file video sono "scatole nere" per i crawler dei motori di ricerca (come Googlebot). Fornendo file testuali paralleli (VTT e Trascrizioni), si espongono migliaia di keyword e contesti semantici analizzabili, migliorando drasticamente il ranking e la reperibilità (Searchability) del contenuto per tutti gli utenti web. I file testuali rallentano il caricamento e penalizzano la SEO. Il motore di ricerca cancella il video se trova un file di trascrizione associato. Nell'architettura HTML5 avanzata, il tag <track> supporta diversi attributi kind. Se lo sviluppatore imposta kind="descriptions", come viene gestito tecnicamente il file testuale dal browser e dagli screen reader (Screen Reader API)?. Il testo appare sullo schermo come enormi sottotitoli gialli. Il file testuale non viene visualizzato a schermo (non c'è UI visibile). Invece, il browser espone i timestamp e i testi all'Accessibility API del sistema operativo (es. MSAA/UIAutomation). Lo Screen Reader intercetta i nodi e "legge" vocalmente il testo tramite Text-to-Speech (TTS) nel momento esatto indicato dai tempi, creando un'audiodescrizione sintetica. Il browser scarica un file audio dal server. La riproduzione del video viene bloccata in attesa dell'intervento umano. Nell'ambito del broadcasting televisivo e dei workflow professionali (es. archivi Netflix/Rai), il formato SRT è insufficiente. Quale formato XML-based è considerato lo standard W3C per i sottotitoli distribuiti ad alta fedeltà, capace di supportare metadati avanzati, ruby, formattazione regionale e styling CSS rigoroso?. Il file system FAT32. Il TTML (Timed Text Markup Language), o i suoi profili derivati come SMPTE-TT. Consente un controllo programmatico granulare a livello di frame e un'infrastruttura estensibile per lo scambio di dati testuali temporizzati tra sistemi di authoring e distribuzione broadcast. Il formato DOCX di Microsoft Word. L'estensione di file GIF per animare i testi. Stai costruendo una pipeline di Continuous Integration per l'accessibilità (A11y CI/CD). Hai uno script in Python che sfrutta FFmpeg per "iniettare" (Mux) una traccia di Audiodescrizione separata (.m4a) all'interno di un file video (.mp4) già codificato. Qual è il vantaggio architetturale di usare un comando FFmpeg come -c copy durante questa operazione?. Riduce a zero le dimensioni finali del file. Esegue il Multiplexing (Muxing) senza ricodificare i flussi video e audio originali. Questo impedisce qualsiasi degrado (lossy generation loss) della qualità dell'immagine ed esegue l'operazione in pochi secondi, semplicemente impacchettando il nuovo stream audio nel "Container" MP4 accanto a quello principale. Modifica i colori del video in bianco e nero. Codifica forzatamente la traccia audio in testo ASCII stampabile. Nel framework WebVTT, un Web Developer frontend deve formattare tramite CSS esclusivamente una singola parola (es. "urlò") all'interno della traccia sottotitoli. Quale meccanismo di parsing del DOM e pseudo-elementi si applica per intercettare lo styling del testo contenuto nel file .vtt (es. <i>urlò</i>)?. Si usa il tag generico <font>. Il browser genera dei nodi (Cue Nodes). Il CSS deve chiamare lo pseudo-elemento ::cue (o ::cue(i)). Le regole stilistiche applicate a questo pseudo-elemento (es. video::cue(i) { color: red; }) sovrascriveranno il rendering nativo dell'User Agent solo per i testi taggati in quel modo nel payload temporale. È impossibile iniettare CSS all'interno di un player video HTML5. Si invia una query SQL al database del video. Per garantire il "Frame-accurate syncing" in un sistema di montaggio NLE per sottotitoli broadcast (NTSC 29.97 fps), l'ingegnere del suono deve mappare i tempi utilizzando il "Drop-frame Timecode" (SMPTE). A quale criticità temporale microscopica dell'infrastruttura video risponde questo standard rispetto a un normale orologio basato su SRT?. Risolve il problema del cambio di fuso orario tra due continenti. Poiché il framerate broadcast reale a colori NTSC non è 30fps interi ma 29.97, l'orologio "assoluto" del software perderebbe 3 secondi e mezzo di sincronia ogni ora (Drift). Il timecode "Drop-frame" (es. 01:00:00;00 con punto e virgola) salta logicamente due numeri di frame ogni minuto (tranne i decimi) per mantenere la numerazione dei sottotitoli perfettamente allineata all'orologio reale (Wall-clock time). Rallenta l'orologio interno del computer per evitare il surriscaldamento. Elimina i sottotitoli in cui l'attore balbetta. Stai sviluppando un'applicazione web usando la "Web Speech API" (SpeechRecognition) fornita dal browser per generare una trascrizione in tempo reale del microfono dell'insegnante (Live Captioning). Quale attributo di configurazione dell'oggetto instanziato è critico per restituire all'interfaccia i testi provvisori mentre l'insegnante sta ancora parlando, evitando di aspettare la fine della frase?. L'attributo recognition.lang = 'en-US'. L'attributo recognition.interimResults = true. Quando è attivato (booleano), l'API spara eventi continui (onresult) restituendo il testo intermedio stimato, che l'UI può mostrare in grigio, per poi stabilizzarlo quando il motore di riconoscimento cloud conferma la sintassi finale. L'attributo recognition.volume = 100. L'attributo recognition.stop(). In un'architettura Enterprise, un fornitore di servizi Cloud (es. AWS Elemental MediaConvert) deve generare flussi video HLS (HTTP Live Streaming) conformi alle normative FCC. Come vengono veicolati architetturalmente i "Closed Captions" CEA-708 all'interno di un file sorgente in formato .ts (MPEG-2 Transport Stream) per evitare l'uso di manifesti di testo esterni soggetti a desincronizzazione?. Inviando un file .doc via email parallela all'utente. I dati dei sottotitoli (Caption payloads) vengono iniettati, codificati in esadecimale e nidificati come metadati a livello hardware (SEI messages - Supplemental Enhancement Information) direttamente all'interno dei frame H.264/HEVC stessi (flusso video elementare). Il player decodifica l'immagine e contemporaneamente estrae i testi dal frame. Incollando un file PDF sul monitor. Il formato .ts non supporta l'accessibilità. Nel soddisfare il requisito "Media Alternative" delle WCAG 2.1 a Livello AAA (il livello massimo), quale specifico "Documento di Interazione Alternativa" deve essere codificato a livello di markup testuale per sostituire totalmente un'esperienza video e-learning complessa basata sull'utente?. Una foto in miniatura del video. Un documento testuale strutturato che contenga non solo la Trascrizione Descrittiva del video, ma anche i collegamenti programmatici (Action links) equivalenti a quelli che comparivano nei video interattivi, permettendo all'utente che usa lo Screen Reader di compiere lo stesso ramo di scelte decisionali (es. bivi) presenti nel flusso multimediale visivo. Un file .CSV con i nomi di tutti gli attori che partecipano. Un documento PDF protetto da password generata in codice Morse. Quando invii i dati a un'API di "Speech-to-Text" (es. Google Cloud STT) per automatizzare i sottotitoli in un sistema backend, il modello acustico restituisce spesso un "Confidence Score" per ogni token. Come può uno sviluppatore sfruttare questo parametro JSON (word_confidence) in un editor di revisione per facilitare il lavoro del team di accessibilità umana (Human-in-the-loop)?. Usarlo per bloccare il sistema se la parola è una parolaccia. Mappando il valore numerico (da 0.0 a 1.0) sul CSS del frontend dell'editor, ad esempio colorando di rosso acceso tutte le parole restituite dall'API con una "Confidence" inferiore a 0.7. L'operatore umano andrà a colpo sicuro a riascoltare e correggere solo le sezioni che l'intelligenza artificiale segnala come insicure, decuplicando la velocità di revisione. Usarlo per moltiplicare il volume dell'audio in corrispondenza di quella parola. Usarlo per cancellare l'intero file se il punteggio scende sotto 0.9. Stai codificando un payload JSON personalizzato all'interno di un "Cue Setting" di un file WebVTT (es. 00:01.000 --> 00:03.000 { "speakerId": "T1", "emotion": "angry" }). Questo testo non deve essere visibile a schermo, ma deve essere passato a un motore di sintesi vocale (TTS Neurali). A livello architetturale, come "esegui" questa "Audiodescrizione programmatica" nel browser?. Il browser legge ad alta voce da solo i file JSON senza bisogno di codice. Usando JavaScript, si aggiunge un Event Listener all'oggetto TextTrack (oncuechange). Quando il Cue si attiva al timestamp corretto, il JS legge il payload JSON invisibile, istanzia un oggetto SpeechSynthesisUtterance dell'API Web Speech, e comanda al computer di "sintetizzare" l'audiodescrizione specificando voce e intonazione in tempo reale senza caricare pesanti file MP3 aggiuntivi. Stampando il payload JSON su una stampante di rete locale. Inviando un SMS all'utente con il testo contenuto nel payload. |




