Questions
ayuda
option
My Daypo

ERASED TEST, YOU MAY BE INTERESTED ONADIO 2023

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
ADIO 2023

Description:
pytania z zaocznego adio 2023

Author:
KierowcaLodowki
(Other tests from this author)

Creation Date:
18/12/2023

Category:
University

Number of questions: 26
Share the Test:
Facebook
Twitter
Whatsapp
Share the Test:
Facebook
Twitter
Whatsapp
Last comments
No comments about this test.
Content:
Dyskretyzacja nadzorowana: Zamienia każdą wartość atrybutów x nominalnych na atrybut binarny Zamienia atrybuty numeryczne na nominalne Zamienia atrybuty numeryczne na binarne Wymaga znajomości klas decyzyjnych przykładów.
W RapidMiner zbiór danych (exampleSet) zawiera 100 atrybutów numerycznych typu "Regular", w tym jeden atrybut A zawierający około 1% wartości brakujących. Aby uruchomić na tym zbiorze algorytm nadzorowany, który nie obsługuje wartości brakujących można: Usunąć ze zbioru przykłady, dla których atrybut A ma wartość brakującą Zmienić rolę atrybutu na "NotMissing" Zastąpić wartości brakujące atrybuty A średnią arytmetyczną z pozostałych wartości tego atrybutu Zmienić rolę atrybutu A na "Label".
W środowisku RapidMiner w zbiorze danych (ExampleSet) atrybut typu: "Label" wymagany jest do ewaluacji jakości klasyfikatora na zbiorze testowym "Outlier" wymagany jest do uruchomienie algorytmu detekcji anomalii, takiego jak LOF (Local Outlier Factor) "Label" wymagany jest do zbudowania modelu w postaci drzewa decyzyjnego "Regular" wymaga dyskretyzacji przed uruchomieniem algorytmu grupującego.
Wskaż miary, które stosowane są do oceny jakości klasyfikatora. NPV I PPV Sensitivity i Specificity Accuracy RMSE.
Dla macierzy pomyłek: true negative true positive answ negative 1 0 answ positive 0 4 Dokładność klasy "negative" wynosi 100% Całkowita dokładność klasyfikacji wynosi 50% Średnia dokładność klas (balanced accuracy) wynosi 50% Dokładność klasy 'positive' wynosi 100%.
Wskaż prawdziwe zdania dotyczące k-krotnej walidacji krzyżowej dane dzielone są na k-krotnie na dane treningowe i testowe (w ustalonych przez użytkownika proporcjach) dane dzielone są na k podzbiorów, z których k-1 to dane treningowe generowanych jest k modeli, a ocena metody wyznaczana jest jako średnia jakość wygenerowanych modeli generowanych jest k modeli, a ocena metody wyznaczana jest jako maksymalna jakość wygenerowanych modeli.
Drzewo decyzyjne: Liście finalnego drzewa decyzyjnego mogą zawierać przykłady treningowe wyłącznie jednej klasy. Węzeł testowy drzewa decyzyjnego jest dobry, gdy dzieli zbiór przykładów z nim związanych na takie podzbiory, w których kategorie (klasy) przykładów będą maksymalnie mało zróżnicowane. Algorytm indukcji drzew decyzyjnych dobiera w sposób losowy atrybuty do zbudowania testu w węźle drzewa. Przycinanie drzewa decyzyjnego zapobiega nadmiernemu dopasowaniu do danych treningowych.
nie ma pytania na screenie wykorzystuje losowanie ze zwracaniem do utworzenia zbiorów danych, dla których generowane są modele generuje sekwencję modeli coraz to lepiej dostosowanych do przykładów „trudnych" generuje modele posiadające taką samą wagę wykorzystuje losowy podzbiór atrybutów, z którego wyznaczany jest kolejny węzeł testowy generowanego drzewa decyzyjnego.
Stacking: generuje zbiór modeli, z których x każdy bazuje na losowym wykorzystuje meta-model decydujący o wypadkowej decyzji zespołu generuje sekwencję modeli, gdzie model następny dopasowuje się do błędu popełnianego przez model poprzedni wykorzystuje heterogeniczny zespół modeli.
Efektem działania algorytmu grupowania DBSCAN jest: macierz prototypów grup x rozmyta macierz podziału dendrogram podział na grupy oraz zbiór obiektów określonych jako szum.
Algorytm grupowania DBSCAN: wymaga podania liczby grup, które x mają być odkryte potrafi prawidłowo wskazać zazębiające się wklęsłe grupy maksymalizuje odległość obiektów od środków grup powinien być wykonywany wielokrotnie dla różnych warunków początkowych, gdyż może „utknąć" w lokalnym minimum.
Metoda wyjaśnianialnej sztucznej inteligencji LIME: generuje ranking ważności atrybutów bazuje na koalicyjnej teorii gier bazuje na lokalnie generowanym modelu liniowym jest metodą niezależną od modelu.
Wśród metod wyjaśnialnej sztucznej inteligencji (ang. eXplainable Artificial Inteligence — XAI) wyróżnia się metody, które: generują wyjaśnienia na poziomie całego zbioru danych (wyjaśnienia globalne) generują wyjaśnienia dla dowolnego modelu (ang. model agnostic) generują wyjaśnienia tylko dla jednego rodzaju modelu (ang. model specific) generują wyjaśnienia na poziomie pojedynczego przykładu danych (wyjaśnienia lokalne) .
Wskaż zdania prawdziwe Liście finalnego drzewa decyzyjnego mogą zawierać przykłady treningowe wyłącznie jednej klasy. Węzeł testowy drzewa decyzyjnego jest dobry, gdy dzieli zbiór przykładów z nim związanych na takie podzbiory, w których kategorie (klasy) przykładów będą maksymalnie mało zróżnicowane. Algorytm indukcji drzew decyzyjnych dobiera w sposób losowy atrybuty do zbudowania testu w węźle drzewa. Przycinanie drzewa decyzyjnego zapobiega nadmiernemu dopasowaniu do danych treningowych.
Metoda Random Forest: wykorzystuje losowanie ze zwracaniem do utworzenia zbiorów danych, dla których generowane są modele generuje sekwencję modeli coraz to lepiej dostosowanych do przykładów „trudnych" generuje modele posiadające taką samą wagę wykorzystuje losowy podzbiór atrybutów, z którego wyznaczany jest kolejny węzeł testowy generowanego drzewa decyzyjnego.
Dyskretyzacja według równej szerokości (Discretize by Binning): Zamienia atrybuty numeryczne na nominalne Wymaga podania parametru określającego liczbę wynikowych przedziałów Zamienia każdą wartość atrybutów nominalnych na atrybut binarny Wymaga znajomości klas decyzyjnych przykładów .
Dla macierzy pomyłek: 0 - 0 5 - 95 Dokładność klasy "positive" wynosi 95% Dokładność klasy "negative" wynosi 5% Średnia dokładność klas (balanced accuracy) wynosi 50% Całkowita dokładność klasyfikacji wynosi 95%.
Wskaż poprawne zdania dotyczące macierzy pomyłek Zawiera przykłady, dla których klasyfikator się pomylił Zawiera przykłady, dla których klasyfikator nie popełnił błędu Zawiera liczby pomyłek i prawidłowych wskazań klasyfikatora Na jej podstawie można wyznaczyć różne miary jakości klasyfikacji, np. Sensitivity, Specificity, Accuracy.
Bagging Generuje sekwencję modeli coraz to lepiej dopasowanych do przykładów "trudnych" Wykorzystuje meta-model decydujący o wypadkowej decyzji zespołu Generuje modele posiadające taką samą wagę Generuje homogeniczny zespół modeli .
Boosting wykorzystuje losowanie ze zwracaniem do utworzenia zbiorów danych, dla których generowane są modele generuje sekwencję modeli coraz to lepiej dostosowanych do przykładów „trudnych" generuje modele posiadające taką samą wagę Działa dobrze dla modeli, które silnie dopasowują się do danych (przeuczają sie) .
Efektem dziłania algorytmu grupowania k-średnich (ang. k-means) jest: rozmyta macierz podziału macierz prototypów grup Podział na grupy oraz zbiór obiektów określanych jako szum dendogram .
Algorytm grupowania k-średnich (ang. k-means): wymaga podania liczby grup, które mają być odkryte Powinien być wykorzystywany wielokrotnie dla różnych warunków początkowych, gdyż może "utknąć" w lokalnym minimum Potrafi prawidłowo wskazać zazębiające sie wklęsłe grupy Maksymalizuje odległość obiektów od środków grup .
Wskaż prawdziwe zdania dotyczące wyjaśnialnej sztucznej inteligencji (ang. eXplainable Artificial Inteligence — XAI) Metody wyjaśnialnej sztucznej inteligencji to takie modele uczenia maszynowego, które są interpretowalne Metody wyjaśniania sztucznej inteligencji mogą być niezależne od stosowanego modelu uczenia maszynowego Wyjaśnialna sztuczna inteligencja jest potrzebna, ponieważ naukowcy nie rozumieją, w jaki sposób działają zaawansowane metody uczenia maszynowego Metody wyjaśnialnej sztucznej inteligencji wyjaśniają użytkownikowi na jakiej podstawie model predykcyjny podjął swoją decyzję.
Metoda wyjaśnialnej sztucznej inteligencji SHAP: jest metodą niezależną od modelu generuje ranking ważności atrybutów bazuje na lokalnie generowanym modelu liniowym bazuje na koalicyjnej teorii gier .
K-krotna walidacja krzyżowa dla k=5 dokonuje pięciokrotnego losowania ze zwracaniem, gdzie za każdym razem wylosowane przykłady tworzą zbiór treningowy, a pozostałe zbiór testowy dokonuje pięć razy podziału zbioru danych na dane treningowe i testowe dokonuje jednokrotnego podziału zbioru danych na pięć podzbiorów, z których iteracyjnie wybierane sądane treningowe i testowe dokonuje podziału zbioru danych na zbiór testowy zawierający 5 przykładów i treningowy zawierający pozostałe przykłady.
Wskaż prawdziwe zdania dotyczące indukcji drzew decyzyjnych Drzewa decyzyjne składają się z węzłów testowych, gałęzi i liści Algorytm indukcji drzew decyzyjnych dobiera się w sposób losowy atrybuty do zbudowania testu w węźle drzewa Algorytm indukcji drzew decyzyjnych jest algorytmem rekurencyjnym Przycinanie drzewa decyzyjnego pozwala uzyskać drzewo prostsze, a przy tym bardziej ogólne (mniej dopasowane do danych treningowych).
Report abuse Consent Terms of use