option
Questions
ayuda
daypo
search.php

RNN2025

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
RNN2025

Description:
Redes 2025

Creation Date: 2025/11/25

Category: Others

Number of questions: 17

Rating:(0)
Share the Test:
Nuevo ComentarioNuevo Comentario
New Comment
NO RECORDS
Content:

Atendiendo a la arquitectura de red propia de la segmentación semántica U-Net indique la afirmación CORRECTA: La reducción de dimensionalidad espacial se lleva a cabo mediante capas convolucionales con valor de stride mayor a la unidad. La última capa convolucional del contracting path debe tener tantos canales como clases semánticas a segmentar siempre y cuando esté activada con una sigmoide. Normalmente se emplea como función de pérdidas los índices de Jaccard o Dice para el entrenamiento de este tipo de arquitectura. Para evitar que la información que va fluyendo a través de la red se degrade, se propone el uso de skip connections que consisten en sumar los valores de los mapas de activación resultantes de los bloques encoder a sus correspondientes mapas en el decoder.

En referencia a la codificación de texto para alimentar una red neuronal recurrente indique la afirmación INCORRECTA: En la representación one hot encoding cada una de las palabras ocupa una dimensión de un espacio N-dimensional. Asignar números enteros de manera estocástica a la unidad de texto con la que se trabaja es contraproducente debido al carácter intrínseco de ordenación. Los word embedding tienen como objetivo obtener una representación densa de la unidad de texto resolviendo un problema de aprendizaje supervisado. En el método Word2Vec, se utilizan varias hidden layers con funciones de activación para obtener una representación densa.

Respecto a la familia de arquitecturas R-CNN para la detección y segmentación de objetos indique la afirmación INCORRECTA: Fast R-CNN reduce notablemente el cuello de botella temporal en la fase de inferencia que sufría R-CNN gracias al módulo de pooling. R-CNN emplea la arquitectura pre-entrenada AlexNet para extraer características sobre cada una de las regiones candidatas. Faster R-CNN incluye una region proposal network que emite candidatos a partir de 9 anchors de tamaño rectangular. Mask R-CNN es una solución de segmentación de instancia que parte de Faster R-CNN pero incluye una rama adicional para llevar a cabo la delimitación de objetos a nivel de pixel.

Respecto a la red generativa Auxiliary Classifier GAN (AC-GAN) indique la afirmación INCORRECTA: AC-GAN es una variante de la conditional GAN capaz de generar muestras sintéticas a partir de un punto en el espacio latente y una etiqueta de clase. A diferencia de la versión vanilla GAN, la AC-GAN permite generar muestras de la clase deseada. En la AC-GAN, el discriminador recibe directamente (desde la entrada) la información acerca de la clase que se desea generar. El discriminador de la arquitectura AC-GAN tiene dos ramas de salida, una para discriminar real/fake y otra para discernir la clase de la muestra que recibe a su entrada.

Respecto a la técnica de data augmentation, indique la afirmación FALSA: Se pueden emplear transformaciones tanto geométricas como de intensidad. La muestra original (sobre la que se generan las sintéticas) queda fuera del proceso de entrenamiento cuando se emplea esta técnica. Se suele emplear tanto en el conjunto de datos de entrenamiento como en el de test. Se puede implementar mediante la clase ImageDataGenerator empleando Keras.

Respecto a los métodos de tracking de objetos indique la afirmación CORRECTA: YOLO sigue una estrategia single stage y es capaz de ofrecer una capacidad de análisis de más de 170 PFS garantizando una Top-5 accuracy superior al 90%. Se tratan de metodologías que difícilmente se pueden emplear para la detección de objetos en escena estática. Comparando los métodos Faster RNN y SSD se puede afirmar que el primero de ellos resuelve de manera más eficiente la tarea de tracking de objetos. Podemos hablar de una buena técnica de tracking si tenemos un modelo con un mAP superior a 80.0 siempre y cuando al menos procese 14 FPS.

Se desea implementar una RNN que analice secuencias de texto tanto en el sentido lógico de lectura como en el sentido opuesto. Indique la instrucción de Keras adecuada para dicho propósito: model.add(LSTM(256, return_sequences=True)). model.add(LSTM(256, recurrent_dropout=0.25)). model.add(LSTM(256)). model.add(Bidirectional(LSTM(256))).

Se pretende desarrollar un modelo de categorización de tipos de clientes según sus movimientos bancarios a partir de ciertos datos estructurados. ¿Que combinación de función de pérdidas y activación en la capa de salida es la más adecuada?. Categorical cross entropy & Sigmoide. Binary cross entropy & Sigmoide. MAPE & Linear. MSE & Softmax.

Cuales serán las dimensiones del mapa de activación a la salida del bloque convulacional detallado a continuación si batch_size = 16?. (32, 128, 128, 16). (16, 64, 64, 32). (32, 64, 64, 16). (16, 128, 128, 32).

Con cuál de las siguientes instrucciones se obtiene un volumen de activación a la salida del bloque convulucional con idénticas dimensiones espaciales (x e y) que las dismensiones espaciales (x e y) de la entrada. Conv2D(32, 3, activation='relu', input_shape=(None, 128, 128, 3), padding="same") MaxPooling2D(pool_size=(2, 2)). Conv2D(32, 3, activation='relu', input_shape=(None, 128, 128, 3), padding="valid") MaxPooling2D(pool_size=(1, 1)). Conv2D(32, 3, activation='relu', input_shape=(None, 128, 128, 3), padding="valid") MaxPooling2D(pool_size=(2, 2)). Conv2D(32, 3, activation='relu', input_shape=(None, 128, 128, 3), padding="same") MaxPooling2D(pool_size=(1, 1)).

¿Cuál será el valor de activación en la práctica al llevar a cabo la operación convolución 2D (cross-correlation) activada con ReLU en el vecindario [59 63 69; 59 62 69; 57 61 70] empleando el kernel [1 0 -1; 2 0 -2; 1 0 -1]?. 43. 0. -43. Ninguna de las anteriores.

¿Cuántas actualizaciones de pesos compondrán el proceso de entrenamiento de una red neuronal caracterizado por los siguientes hiperparámetros?: Conjunto de entrenamiento compuesto por 4096 muestras; learning rate = 0.01; batch size = 32 y num_epochs = 10. 128. 1280. 12800. Ninguna de las anteriores.

¿Qué mecanismo/s de los que se listan a continuación se emplean para disminuir espacialmente un mapa de activación?. MaxPooling. Parámetro 'stride' de Conv2D mayor que la unidad. Dropout. a y b son correctas.

Respecto a las técnicas de transferencia del conocimiento estudiadas indique la respuesta CORRECTA: Tanto para la técnica de transfer learning (TL) como fine tuning (FT), la primera operación a realizar es el preprocesamiento de datos que se llevó a cabo para entrenar la red neuronal original. En ambas técnicas (TL y FT) el primer paso sustancial y obligatorio es el de aplicar una conversión de las etiquetas del dataset a formato one hot econding. La técnica de FT se aplica si el dataset del dominio destino es muy parecido en número de muestras e información visual al del dataset origen. a y b son correctas.

A la vista del siguiente model.summary() es probable afirmar que: Tras visualizar los parámetros aprendibles de Block1_conv1 y block1_conv2 podemos afirmar que los kernel de la primera capa Conv2D (block1_conv1) son más grandes que los de la segunda capa block1_conv_2. Se pretende implementar una arquitectura típica de segmentación semántica. Se utilizan valores de stride mayores que la unidad para reducir la dimensionalidad espacial. Ninguna de las anteriores es correcta.

Enumere y explique los términos de la función de pérdidas que rige el proceso de entrenamiento de una CycleGAN.

Implemente una arquitectura de red neuronal para llevar a cabo la clasificación de 5 tipos de géneros musicales así como todos los pasos necesarios para su entrenamiento. Suponga que dispone de una colección de ventanas de canciones (señal de audio) en una variable denominada X_train y su respectivo genero musical (codificados con una etiqueta decimal) en una variable denominada y_train. Para lograr una mayor representatividad de las características extraídas sobre la secuencia musical, inserte dos capas Recurrent neural networks (RNN) de 256 y 128 unidades (del tipo más adecuado para la resolución del problema), respectivamente. Emplee el optimizador Adam y la función de pérdidas (junto con la métrica a monitorizar) más conveniente para la resolución del problema.

Report abuse