sialala1

 0    87 flashcards    klaudiawcislo
download mp3 print play test yourself
 
Question język polski Answer język polski
Big data to duże dane do analizowania, których liczbę należy maksymalizować w celu wydobycia określonych wartości informacyjnych.
start learning
P
Big data to duże dane do analizowania, których liczbę należy minimalizować w celu wydobycia określonych wartości informacyjnych.
start learning
F
Big data bazuje na koncepcji 3 atrybutów (3V)
start learning
P
Big data bazuje na koncepcji 4 atrybutów
start learning
P
Koncepcja 3V dotyczy:
start learning
objętość (volume), różnorodność (variety) oraz szybkość przetwarzania (vielocity)
Koncepcja 4V dotyczy:
start learning
objętość (volume), różnorodność (variety) oraz szybkość przetwarzania (vielocity), wiarygodność(veracity)
Dane w big data są różnorodne
start learning
P
Dane w big data są z różnych źródeł z dużą prędkością?
start learning
P
Dane w big data są generowane z jednego źródła?
start learning
F
Dane w big data są z różnych źródeł z małą prędkością?
start learning
F
Wymień 6 atrybutów big data
start learning
objętość, złożoność, szybkość, wartość, różnorodność, zmienność
W big data dane traktowane są jako strumienie a nie zbiory
start learning
P
W big data dane traktowane są jako zbiory a nie strumienie
start learning
F
Data scientist musi posiadać wiedzę zarówno z zakresu analiz danych jak również z zakresu technologii informatycznych
start learning
P
Data scientist musi posiadać wiedzę dotyczącą technologii informatycznych
start learning
P
Objętość danych to ich pojemność, słuzy do wprowadzania nowych idei i pomysłów, wymaga odpowiedniej infrastruktury programistycznej
start learning
P
Objętość danych to ich pojemność, słuzy do wprowadzania nowych idei i pomysłów, nie posiada dużych wymagań
start learning
F
Różnorodność danych mówi że dane pochodzą z różnorodnych źródeł, często w różnych formatach oraz w różnej formie
start learning
P
Zmienność mówi że dane pochodzą z różnorodnych źródeł, często w różnych formatach oraz w różnej formie
start learning
F
Różnorodność danych to inaczej heterogeniczność
start learning
P
Złożoność danych to inaczej heterogeniczność
start learning
F
Złożoność danych powiązana z hetefogenicznością danych, różnym źródłem ich pochodzenia, różnym sposobem uporządkowania danych
start learning
P
Zmienność danych powiązana z hetefogenicznością danych, różnym źródłem ich pochodzenia, różnym sposobem uporządkowania danych
start learning
F
Szybkość napływu danych posiada strumieniowy charakter. Dane przesyłane są z ogromną prędkością, wymagające często analizy w czasie rzeczywistym
start learning
P
Szybkość napływu danych posiada strumieniowy charakter. Dane przesyłane są z niską prędkością, wymagające często analizy w czasie rzeczywistym
start learning
F
Wartość danych Szybkość napływu danych posiada strumieniowy charakter. Dane przesyłane są z ogromną prędkością, wymagające często analizy w czasie rzeczywistym
start learning
F
Wysoki poziom zmienności danych związana jest z prędkością przepływu danych oraz ich różnorodnym charakterem
start learning
P
Wartość danych jest to cecha wynikająca z pozostałych atrybutów.
start learning
P
Szybkość napływu jest to cecha wynikająca z pozostałych atrybutów.
start learning
F
Wartość danych jest zwiazana bezpośrednio z wartością dodaną, jaką można wygenerować na podstawie danych
start learning
P
Wartość danych jest zwiazana pośrednio z wartością dodaną, jaką można wygenerować na podstawie danych
start learning
F
Big data - uporządkowanie danych możemy podzielić na: dane o określonej strukturze, o mieszanej strukturze oraz o określonej strukturze
start learning
P
Big data - uporządkowanie danych możemy podzielić na: dane o określonej strukturze, o mieszanej strukturze oraz o zgodnej strukturze
start learning
F
Big data - uporządkowanie danych możemy podzielić na: dane o zmiennej strukturze, o mieszanej strukturze oraz o określonej strukturze
start learning
F
Wyzwania badawcze Big Data związane są bezpośrednio z atrybutami big data
start learning
P
Wyzwania badawcze Big Data związane są bezpośrednio z metodami big data
start learning
F
Wyzwania badawcze Big Data można podzielić na dotyczące technologii oraz dotyczące danych.
start learning
P
Wyzwania badawcze Big Data można podzielić na dotyczące technologii oraz dotyczące problemów
start learning
F
Wyzwania technologiczne związane są z opracowanie odpowiedniej architektury informatycznej
start learning
P
Wyzwania technologiczne związane są z ich charakterem i różnorodnością
start learning
F
Wyzwania badawcze Big Data związane są z opracowanie odpowiedniej architektury informatycznej
start learning
F
Wyzwania dotyczące danych Big Data związane są z opracowanie odpowiedniej architektury informatycznej
start learning
F
Wyzwania dotyczące danych Big Data związane sa z ich charakterem i różnorodnością
start learning
P
Wyzwania technologiczne- architektura informatyczna: źródła danych -> pobór danych -> gromadzenie danych -> wstępne przetwarzanie danych -> rozdzielanie danych -> Analiza danych -> modelowanie danych -> wnioskowanie na podstawie wyników analiz
start learning
P
Wyzwania technologiczne- architektura informatyczna:
start learning
źródła danych -> pobór danych -> gromadzenie danych -> wstępne przetwarzanie danych -> rozdzielanie danych -> Analiza danych -> modelowanie danych -> wnioskowanie na podstawie wyników analiz
Charakter danych możemy podzielić na: różnorodnosć źródeł, różnorodność formatów, jakość, wielowymiarowość, pojemność informacyjna, wartość biznesowa
start learning
P
Charakter danych możemy podzielić na: jakość źródeł, różnorodność formatów, wartość, wielowymiarowość, pojemność informacyjna, wartość biznesowa
start learning
F
Charakter danych możemy podzielić na: różnorodnosć źródeł, różnorodność formatów, jakość, wielowymiarowość, pojemność informacyjna, wartość wynikowa
start learning
F
Cloud computing to tzw przetwarzanie w chmurze
start learning
P
Cloud computing to tzw przetwarzanie na serwerze
start learning
F
Cloud computing możemy podzielić na Private Cloud, Hybrid Cloud oraz Public Cloud
start learning
T
Cloud computing możemy podzielić na Private Cloud, Hybrid Cloud oraz Protected Cloud
start learning
F
Architektura informatyczna to połaczenie sprzetu i odpowiedniego oprogramowania wspierającego proces przetwarzania danych Big Data
start learning
P
Apache Hadoop jest to projekt którego celem jest rozwój oprogramowania typu "open-source" do przetwarzania rozproszonych dużych zasobów danych w klastrach serwerów przy uzyciu prostych metod programistycznych
start learning
P
Zalety Hadoop: Skalowalność, elastyczność, opłacalność, bezawaryjność
start learning
P
Zalety Hadoop w opszarze Big Data: Skalowalność, elastyczność, niska cena, bezawaryjność
start learning
F
Do Zalet Hadoop w obszarze Big Data należy umożliwirnir dodania nowych węzłów bez konieczności zmiany formatów danych, jakie są ładowane (skalowalność)
start learning
P
Do Zalet Hadoop w obszarze Big Data należy umożliwirnir dodania nowych węzłów z koniecznością zmiany formatów danych, jakie są ładowane (skalowalność)
start learning
F
Do Zalet Hadoop w obszarze Big Data należy dodanie możliwości poboru wszelkich rodzajów danych, o dowolnych formatach, z różnych źródeł (elastyczność)
start learning
P
Do Zalet Hadoop w obszarze Big Data należy dodanie możliwości poboru wszelkich rodzajów danych, o określonych formatach, z różnych źródeł (elastyczność)
start learning
F
Do Zalet Hadoop w obszarze Big Data należy umożliwienie prowadzenie równolegle obliczeń na wielu serwerach (cost-reduced) (opłacalność)
start learning
P
Do Zalet Hadoop w obszarze Big Data należy umożliwienie prowadzenie równolegle obliczeń na dwóch serwerach (cost-reduced) (opłacalność)
start learning
F
Do Zalet Hadoop w obszarze Big Data należy w razie problemów z jednym węzłem jego zadania zostają przekierowane do innych jednostek (bezawaryjność)
start learning
P
Do Zalet Hadoop w obszarze Big Data należy w razie problemów z jednym węzłem jego zadania zostają przekierowane do innych danych (bezawaryjność)
start learning
F
Cecha NoSQL: jest to system nie posiadajacy relacji oraz zdefiniowanego jezyka
start learning
P
Cecha NoSQL jest to system posiadajacy relacje oraz zdefiniowany język
start learning
F
Cecha NoSQL wykorzystywany dla danych nie posiadających określonej struktury lub semi-strukturalnych
start learning
P
Cecha NoSQL wykorzystywany dla danych posiadających określoną struktury lub semi-strukturalnych
start learning
F
Cecha NoSQL Skalowalność i elastyczność bazy – możliwość zwiększania wydajności systemu wraz z rosnącym zapotrzebowaniem
start learning
P
Cecha NoSQL Skalowalność i elastyczność bazy – możliwość zwiększania wydajności systemu wraz z malejącym zapotrzebowaniem
start learning
F
NoSQL może być stosowany ze zwykłym SQLem
start learning
P
NoSQL nie może być stosowany ze zwykłym SQLem
start learning
F
Klasyczne narzędzia analizy danych Big Data:
start learning
Przetwarzanie sieciowe (Grid-computing), przetwarzanie w bazie danych (in-database-processing), analityka w pamięci (in-memory analytics)
Klasyczne narzędzia analizy danych Big Data: Przetwarzanie sieciowe (Grid-computing), przetwarzanie w bazie danych (in-database-processing), analityka w pamięci (in-memory analytics)
start learning
P
NoSQL – (non SQL) nierelacyjna baza danych, umożliwiająca przechowywanie i pobieranie danych w różnych formatach w nieograniczony sposób
start learning
P
Cykl analizy Big Data: użytkownik biznesowy -> Administrator hurtowni danych ->Data scientist->Analityk Business Intelligence->Końcowy uzytkownik biznesowy
start learning
P
Cykl analizy Big Data - użytkownik biznesowy jest odpowiedzialny za określenie i analizę wskaźników wydajności KPI oraz za formuowanie wymagań analitycznych odnośnie danych
start learning
P
Cykl analizy Big Data - Uzytkownik biznesowy jest to osoba odpowiedzialna za zidentyfikowanie podstawowych procesów biznesowych
start learning
P
Cykl analizy Big Data - Administrator hurtowni Danych odpowiedzialny za definiowanie, rozwój oraz obsługę hurtowni danych oraz zarządzanie narzędziami wspomagającymi Big Data
start learning
P
Cykl analizy Big Data - Uzytkownik biznesowy odpowiedzialny za definiowanie, rozwój oraz obsługę hurtowni danych oraz zarządzanie narzędziami wspomagającymi Big Data
start learning
F
Cykl analizy Big Data - Data Scientist - osoba odpowiedzialna za budowę modeli analitycznych oraz ich implementację w środowisko informatyczne wspomagające Big Data
start learning
P
Cykl analizy Big Data - Końcowy użytkownik biznesowy – (final business user, end-user) osoba wykorzystująca w swojej pracy wszelkie informacje wygenerowane przez pozostałych uczestników cyklu analizy Big Data
start learning
P
Cykl analizy Big Data - analityk BI - Końcowy użytkownik biznesowy – (final business user, end-user) osoba wykorzystująca w swojej pracy wszelkie informacje wygenerowane przez pozostałych uczestników cyklu analizy Big Data
start learning
F (końcowy użytkownik biznesowy)
Cykl analizy Big Data - analityk BI - osoba odpowiedzialna za identyfikację, zarządzanie i publikowanie kluczowych wskaźników wydajności oraz raportów, zazwyczaj w czasie zbliżonym do rzeczywistego
start learning
P
Cykl analizy Big Data - Końcowy użytkownik biznesowy – osoba odpowiedzialna za identyfikację, zarządzanie i publikowanie kluczowych wskaźników wydajności oraz raportów, zazwyczaj w czasie zbliżonym do rzeczywistego
start learning
F (analityk BI)
Zarządzanie bazą danych – wszelkie działania mające na celu usprawnienie procesu pracy z danymi, przyczyniające się do obniżenia kosztów obsługi danych, przechowywania danych, administrowania oraz eksploracji
start learning
P
Zarządzanie bazą danych typu Big Data Działania na danych możemy podzielić na:
start learning
Gromadzenie danych, próbkowanie, wstępne przetwarzanie

You must sign in to write a comment