option
My Daypo

ADIOS

COMMENTS STADISTICS RECORDS
TAKE THE TEST
Title of test:
ADIOS

Description:
jakoś to zdamy

Author:
AVATAR

Creation Date:
05/12/2022

Category:
Entertainment

Number of questions: 64
Share the Test:
Facebook
Twitter
Whatsapp
Share the Test:
Facebook
Twitter
Whatsapp
Last comments
No comments about this test.
Content:
Zbiory rozmyte o nieskończonym nośniku nie są stosowane w systemach rozmytych Prawda Fałsz.
Zbiory Gaussowskie w konkluzjach reguł dają zwartą postać odpowiedzi systemu Prawda Fałsz.
Zasada rozszerzania jest stosowana, gdy argumentem funkcji jest zbiór rozmyty Prawda Fałsz.
Wypracowany model rozmyty jest przedstawiany w postaci regałowej Prawda Fałsz.
Wadą rozproszonego podziały przestrzeni wejściowej jest przekleństwo wymiarowości Prawda Fałsz.
W przedziałowych zbiorach rozmytych typu drugiego wtórna funkcja przynależności przyjmuje ... Prawda Fałsz.
W ogólnym przypadku najbardziej obciążającym obliczeniowo blokiem jest blok wyostrzania Prawda Fałsz.
Tworzenie bazy reguł jest możliwe przy wykorzystaniu innych narzędzi uczenia maszynowego Prawda Fałsz.
System rozmyty wymaga podania bazy reguł rozmytych Prawda Fałsz.
System anfis może być przedstawiony jako sztuczna sieć neuronowa Prawda Fałsz.
Siatkowy podział przestrzeni wejściowej jest obciążony klątwą wymiarowości Prawda Fałsz.
Rdzeń trójkątnego zbioru rozmytego jest przedziałem o niezerowej długości Prawda Fałsz.
Odpowiedzią systemu jest konkluzja reguły, której przesłanka zaktywowana jest najsilniej (voting paradigm) Prawda Fałsz.
Nośnik i rdzeń singletonu są tożsame Prawda Fałsz.
Najpopularniejszym podziałem dziedziny wejściowej jest podział siatkowy Prawda Fałsz.
Najpopularniejszym podziałem dziedziny wejściowej jest podział rozproszony Prawda Fałsz.
Możliwe jest, że więcej niż jedna reguła jest aktywna dla podanej danej wejściowej Prawda Fałsz.
Metoda środka ciężkości jest wykorzystywana w operacji rozmywania Prawda Fałsz.
Metoda środka ciężkości jest wykorzystywana do operacji agregacji. Prawda Fałsz.
Jednym z kryteriów interpretowalności modelu rozmytego jest liczba reguł. Prawda Fałsz.
Im większa liczba reguł systemu, tym większa zdolność generalizacji. Prawda Fałsz.
Centroid służy do wyostrzenia odpowiedzi rozmytej Prawda Fałsz.
Sztuczna inteligencja (ang. eXplainable Artificial Inteligence - XAI) Metody wyjaśnialnej sztucznej inteligencji mogą być niezależne od stosowanego modelu uczenia maszynowego.
System Tagaki-Sugeno-Kanga (TKS) / Mamdaniego-Assilana (MA) W systemie rozmytym Mamdaniego-Assilana konkluzje zbudowane są ze trójkątnych zbiorów rozmytych W systemie Tagaki-Sugeno-Kanga konkluzja to singleton, funkcja liniowa odpowiada za ich położenie System Tagaki-Sugeno-Kanga zwykle bardziej nadaje się do zadania regresji niż system Mamdaniego-Assilana System Takagi-Sugeno-Kanga ma lepsza interpretowalność niż system Mamdaniego-Assilana System TKS ma logiczną interpretację reguł rozmytych W systemie rozmytym Mamdaniego-Assilana konkluzje są funkcjami liniowymi atrybutów wejściowych.
Implikacja rozmyta W większości implikacji rozmytych jej wartość dla zerowej przesłanki jest negacją konsekwencji Implikacja rozmyta jest modelowana T-normą Implikacja rozmyta moduluje regułę rozmytą w systemie Mamdaniego-Assilana Implikacje rozmyte mogą nie spełniać warunków brzegowych implikacji ostrej.
Deskryptory W systemach neuronowo-rozmytych nie mogą być stosowane deskryptory trójkątne, bo są nieróżniczkowalne W systemach neuronowo-rozmytych nie mogą być stosowane deskryptory trójkątne, bo są różniczkowalne W systemach neuronowo-rozmytych stosowane są wyłącznie deskryptory różniczkowalne Deskryptory w przesłance reguły rozmytej łączy się S-normą Spójnik “I” łączący deskryptory w przesłankach reguł jest modelowany S-normą.
Systemy neuronowo-rozmyte Parametry modelu w systemie neuronowo-rozmytym mogą być strojone metodami ewolucyjnymi System neuronowo-rozmyty wypracowuje bazę reguł rozmytych na podstawie danych Jest możliwe zastosowanie w systemie (neuronowo-)rozmytym zbioru rozmytego o nieskończonym nośniku i pustym rdzeniu.
SVR SVR jest generalnie regresja liniowa Dla jednego punktu uczącego możemy uzyskać tylko jedna niezerowa wartość kary W przypadku SVR zerowy błąd regresji to taki, gdy prosta regresji przechodzi dokładnie przez punkt uczący Wektory podpierające to te, dla których oba mnożniki Lagrange’a są zerowe.
SVM Wektory podpierające to te, dla których mnożniki Lagrange’a są niezerowe Zadaniem funkcji jądra jest wyznaczenie iloczynu skalarnego argumentów w wysokowymiarowej przestrzeni Zakłada, że zawsze istnieje optymalna hiperpłaszczyzna rozdzielająca. SVM jest generalnie klasyfikatorem wieloklasowym SVM nie radzi sobie z problemami liniowo nieseparowanymi.
Stacking wykorzystuje meta-model decydujący o wypadkowej decyzji zespołu.
Które z poniższych zdań dotyczących reguł asocjacyjnych i ich indukcji Wiarygodność reguły asocjacyjnej to miara identyczna do precyzji reguł klasyfikacyjnej W algorytmie a-priori wynikiem operacji połączenie(Si-1) są koniunkcja złożone z i warunków elementarnych uzyskanych poprzez połączenie koniunkcji zawierających i-1 warunków. Przy czym Kandydatami do połączenia są dowolne P, Q<Si-1 dla których spośród ich i-1 warunków elementarnych i-2 są identyczne W algorytmie a-priori zbiory częste budowane są począwszy od koniunkcji zawierających wszystkie atrybuty, w kolejnych fazach algorytmu usuwane są te składniki koniunkcji, które są najmniej obiecujące Jeżeli P i Q są dowolnymi zbiorami częstymi to regule asocjacyjna uzyskujemy jako wyrażenie P-> Q – P.
Reguły Jednym z kryteriów interpretowalności modelu rozmytego jest liczba reguł. W ogólności wyostrzanie odpowiedzi systemu może być kosztowne obliczeniowo Możliwe jest, że więcej niż jedna reguła jest aktywna dla podanej danej wejściowej.
W środowisku RapidMiner zbiór danych (ExampleSet) zawiera 1000 atrybutów nominalnych typu "Regular", w tym jeden atrybut A zawierający około 99% wartości brakujących. Aby uruchomić na tym zbiorze algorytm nadzorowany, który nie obsługuje wartości brakujących można: Usunąć ze zbioru atrybut A.
W środowisku RapidMiner zbiór danych (ExampleSet) zawiera 100 atrybutów numerycznych typu "Regular", w tym jeden atrybut A zawierający około 1% wartości brakujących. Aby uruchomić na tym zbiorze algorytm nadzorowany, który nie obsługuje wartości brakujących można: Usunąć ze zbioru przykłady, dla których atrybut A ma wartość brakującą Zastąpić wartości brakujące atrybuty A średnią arytmetyczną z pozostałych wartości tego atrybutu.
W środowisku RapidMiner w zbiorze danych (ExampleSet) atrybut typu "Label": wymagany jest do zbudowania modelu w postaci drzewa decyzyjnego wymagany jest do ewaluacji jakości klasyfikatora na zbiorze testowym wymagany jest do zbudowania modelu w postaci regresji liniowej.
Random Forest generuje modele posiadające taką samą wagę wykorzystuje losowanie ze zwracaniem do utworzenia zbiorów danych, dla których generowane są modele wykorzystuje losowy podzbiór atrybutów, z którego wyznaczany jest kolejny węzeł decyzyjny.
Normy T-norma jest łączna i przemienna T-normy i S-normy nie mają ekstremów lokalnych Dla tych samych argumentów wartości T-normy i S-normy sumują się do jedności Zmienna lingwistyczna jest modelowana różnymi rodzajami T-norm Spójnik “I” łączący deskryptory w przesłankach reguł jest modelowany S-normą Deskryptory w przesłance reguły rozmytej łączy się S-normą.
kNN Liczba sąsiadów jest parametrem metody kNN jest metoda nieparametryczna Sposób liczenia odległości nie jest parametrem metody Metoda jest odporna na nieznormalizowane danych.
Oceny jakości klasyfikatorów Accuracy jest miarą jakości klasyfikatora Walidacja krzyżowa jest metodą eksperymentalnej oceny efektywności klasyfikatorów.
Które z poniższych zdań dotyczących klasyfikatorów regułowych i drzewiastych (drzewa decyzyjne) są prawdziwe Klasyfikator regułowy wymaga podania algorytmu decyzyjnego rozstrzygającego sporne przypadki klasyfikacji, klasyfikator drzewiasty nie wymaga takiego algorytmu Indukcja drzew decyzyjnych odbywa się na zasadzie divide-and-conquer (dziel i zwyciężaj) Węzeł testowy drzewa decyzyjnego jest dobry, gdy dzieli zbiór przykładów z nim związanych na takie podzbiory, w których kategorie (klasy) przykładów będą maksymalnie mało zróżnicowane Przycinanie drzewa decyzyjnego pozwala na uzyskanie bardziej ogólnego modelu Klasyfikacja z wykorzystaniem drzewa decyzyjnego polega na przejściu dla wartości atrybutów danego przykładu od korzenia w dół, aż do liścia reprezentującego klasę Standardowa faza przycinania reguły polega na usuwaniu z niej tych warunków elementarnych, które pojawiają się w regułach z innymi – niż przycinana regula – decyzjami Zasada działania klasyfikatora probabilistycznego polega m.in. na tym ze przykład przyporządkowywany jest zawsze do tej klasy decyzyjnej, dla której klasyfikator ten przyporządkowuje mu (przykładowi) najwyższe prawdopodobieństwo przynależności.
Które z poniższych zdań dotyczących eksperymentalnej oceny klasyfikatorów są prawdziwe Dla niewielkich (mała liczba przykładów) zbiorów danych odpowiednie są metody oceny eksperymentalnej znane jako leave-one-out oraz bootstrap Do porównania efektywności dwóch klasyfikatorów na podstawie wyników uzyskanych na wielu zbiorach danych można użyć testu znaków Jedna z możliwości kompleksowego porównania efektywności wielu klasyfikatorów na podstawie wyników uzyskania na wielu zbiorach danych jest użycie jedynie testu Friedmana Warstwowa (stratified) walidacja krzyżowa polega na tym, że losowane są coraz większe zbiory testowe i coraz mniejsze zbiory treningowe.
Które nie są eksperymentalnymi metodami oceny klasyfikacji: spec hold-out random bootstrapping stratified cross validation.
Do oceny trafności klasyfikatora utworzonego dla dwóch klas decyzyjnych, z których jedna – ta najbardziej dla nas interesująca – jest zdecydowanie mniejsza (w sensie liczby przykładów treningowych) nie powinno stosować się kryterium: Overall classification accuracy MAE (Mean Absolute Error) AUC (Area Under Curve) F-measure.
Efektem działania algorytmu grupowania k-średnich (k-means) jest Ostra macierz podziału Macierz prototypów grup Zbiór obiektów określanych jako szum Dendrogram.
K-means liczba grup jako parametr efektem działania jest macierz prototypów grup wymaga podania liczby grup, które mają być odkryte powinien być wykonywany wielokrotnie dla różnych warunków początkowych, gdyż może „utknąć" w lokalnym minimum czy należy powtarzać działanie, losując nowy środek, żeby nie utknąć w minimum lokalnym może tworzyć wklęsłe/zagnieżdżone grupy korzysta z maksymalnych odległości.
Jakie warunki musi spełniać funkcja jądra (estymatory funkcji gęstości): Nieujemna na całym zbiorze liczb rzeczywistych, Jest parzysta.
Funkcja jądra: jakiś parametr wygładzania ma większy wpływ niż f. jądra (parametr h) całka z f. jądra na całej przestrzeni liczb rzeczywistych wynosi 1 zbyt duże wartości jakiegoś parametru powodują zbytnie wygładzenie funkcji regresji (parametru h).
Metoda dyskretyzacji według równej szerokości: nie wymaga znajomości klas decyzyjnych przykładów wymaga podania parametru określającego liczbę wynikowych przedziałów zamienia wartości atrybutu numerycznego na wartości binarne jest wykorzystywana w standardowym algorytmie indukcji reguł w fazie przycinania reguły.
Dyskretyzacja pod względem równej częstotliwości: Wymaga podania parametru określającego liczbę wynikowych przedziałów Jest bardziej oporna na wartości odstające niż metoda dyskretyzacji według [] równej szerokości jako parametr podaje się liczbę przedziałów czy jest wykorzystywana w początkowej fazie(indukcji reguł?) zamienia wartości z numerycznych na binarne wymaga podania klas decyzyjnych Zamienia wartości atrybutu numerycznego na wartości binarne wymaga znajomość klas decyzyjnych przykładów.
Dyskretyzacja Podczas dyskretyzacji globalnej atrybuty są dyskretyzowane niezależnie od innych. Dyskretyzacja z nadzorem uwzględnia klasy decyzyjne. Prymitywne metody dyskretyzacji nie uwzględniają rozkładu wartości klas decyzyjnych. Dyskretyzacja przyspiesza działanie algorytmów. Podczas dyskretyzacji bez nadzoru atrybuty są dyskretyzowane niezależnie od innych. Dyskretyzacja polega na zamianie atrybutu nominalnego na numeryczny. Zawsze poprawia wyniki algorytmów.
Dyskretyzacja Dyskretyzacja polega na zamianie atrybutu numerycznego na nominalny. Niektóre atrybuty stanowią szum. Usunięcie atrybutów nieistotnych przyspiesza działanie algorytmu. Im większa liczba atrybutów tym większa dokładność modelu. Atrybuty nieistotne nie wpływają na dokładność modelu.
DBSCAN potrafi prawidłowo wskazać zazębiające się wklęsłe grupy, efektem działania algorytmu grupowania DBSCAN jest podział na grupy oraz zbiór obiektów określonych jako szum.
Dane jest jako X. [...]. Aby sprawdzić bez rozbijania, czy jajko jest ugotowane na twardo należy: zakręcić jajkiem.
Boosting: Jest metoda, w ramach której modele są tworzone iteracyjnie Generuje sekwencje modeli coraz to lepiej dostosowanych do przykładów „trudnych” Generuje zespól modeli, których decyzje mają rożne wagi Generuje homogrniczny zespól modeli Daje zawsze lepsze wyniki niż pojedynczy model.
Bagging Wykorzystuje losowanie ze zwracaniem do utworzenia zbioru danych, dla których generowane są modele Generuje zadana przez użytkownika liczbę modeli Generuje zespól modeli, których decyzje mają identyczne wagi wszystkie modele mają te same wagi silne dopasowanie do danych zbiór danych jest wynikiem losowania ze zwracaniem działa dobrze dla modeli, które silnie dopasowują się do danych (przyuczają się) Generuje sekwencje modeli coraz to lepiej dostosowanych do przykładów „trudnych” modele coraz bardziej wyspecjalizowane (?).
Automatyczne uczenie maszynowe Automatyczne uczenie maszynowe wykorzystuje optymalizację hiperparametrów generowanych modeli Automatyczne uczenie maszynowe wykorzystuje meta-uczenie w celu dobrania najlepszej metody uczenia maszynowego dla analizowanych danych.
Algorytm grupowania hierarchiczny scalający Pozwala zwizualizować proces scalania za pomocą dendrogramu W kolejnych iteracjach scala dwie najbliższe sobie grupy Wyznacza dendrogram obrazujący proces grupowania Efektem działania algorytmu grupowania hierarchicznego scalającego jest dendrogram Daje jako wynik rozmyta macierz podziały W kolejnych iteracjach minimalizuje kryterialna.
Zbiór danych składa się z 4 obiektów o1, o2, o3, o4 opisanych atrybutem a i przypisanych do jednej z dwóch klas decyzyjnych (atrybut class). Entropia warunkowa (ważona) tego ??? zbioru przykładów ze względu na podział zakresu wartości atrybutu a za pomocą wartości progowej równej 2.5: Jest taka sama jak dla wartości progowej równej 2.75 Jest liczbą z przedziału obustronnie domkniętego [0,1] Przyjmuje wartość ujemną Przyjmuje wartość równą 0.5.
Na podstawie poniższej tabeli wygenerowano reguły. Atrybutem decyzyjnym jest atrybut d. Należy określić poprawność tych reguł. a1=w /\ a2 <= 4 => d=X a1=n /\ a3 >= ... => chomik = ... => d=Z a1=w /\ a2 <= 4 => d=Y ... > ... /\ ... = X => a = w.
Na podstawie poniższej tabeli należy określić prawdziwość poniższych stwierdzeń: d’ stanowi predykcję klasyfikatora opartego na atrybucie a1 d” stanowi predykcję klasyfikatora opartego na zbiorze atrybutów {a2, a3} Dla atrybutu a1, prec=1 Dla zbioru atrybutów {a2, a3}, prec= 1 Dla atrybutu a1, spec=1 Dla zbioru atrybutów {a2, a3}, spec =0.2.
Na podstawie poniższej tabeli należy określić prawdziwość poniższych stwierdzeń: d’ stanowi predykcję klasyfikatora opartego na atrybucie a1 d” stanowi predykcję klasyfikatora opartego na zbiorze atrybutów {a2, a3} Dla atrybutu a1, acc=0.6 Dla zbioru atrybutów {a2, a3}, sens= 1/3 Dla atrybutu a1, sens=0.2 Dla zbioru atrybutów {a2, a3}, acc =0.5.
Dany jest atrybut a, który może przyjąć jedną z wartości: -7, -1, 0, 2, 5, 13. Należy dokonać normalizacji zbioru wartości tego atrybutu metodą: Min-Max Znormalizowane wartości to: 0, 0.3, 0.35, 0.45, 0.8, 1 Z-Score (σ ≈ 6) Znormalizowane wartości to: 5/6, 1/2, 1/3, 0, 1/2, 11/6 Linear Scale Znormalizowane wartości to: 7/13, 1/13, 0, 2/13, 5/13, 1 Linear Scale Znormalizowane wartości to: 1, 1/7, 0, 2/7, 5/7, 13/7.
Dana jest tabela, w której nie jest znana atrybutu wzrost. Co można zrobić z brakującą wartością? Uzupełnić ją średnią Uzupełnić ją medianą Pominąć wiersz zawierający brakującą wartość Pominąć kolumnę zawierającą brakującą wartość.
Atrybutem decyzyjnym jest atrybut e. Należy określić istotność atrybutów a, b, c, d. Atrybut a jest nieistotny Atrybut b jest nieistotny Jeden z atrybutów c lub d jest nadmiarowy Atrybut b stanowi szum.
Report abuse Terms of use
HOME
CREATE TEST
COMMENTS
STADISTICS
RECORDS
Author's Tests