Questões

Total de Questões Encontradas: 15

A principal definição de Big Data parte de três características, conhecidas como 3 V do Big Data, a saber: velocidade, variedade e volume. O termo velocidade refere-se, principalmente, à
A
necessidade das aplicações de gerar respostas rapidamente, a partir de grandes massas de dados.
B
existência de um alto fluxo de dados na entrada.
C
necessidade de gerar aplicações rapidamente, em função da demanda do negócio.
D
importância da facilidade de manipular cubos de visualização de dados, rapidamente.
E
rapidez com que os dados se tornam inválidos com o tempo.
Ano: 2018 Banca: FCC Órgão: DEFENSORIA PÚBLICA DO AMAZONAS Prova: Analista - Banco de Dados
Sobre o processo de ETL, aplicado a data warehouse, é correto afirmar que
A
a fase de extração de dados consiste em obter os dados do servidor do data warehouse.
B
a fase de transformação consiste em realizar modificações nos dados carregados, adequando seus valores ao modelo definido para o data warehouse.
C
as fases de extração e carga de dados são realizadas de forma simultânea. 
D
a fase de carga de dados visa eliminar valores nulos contidos nos bancos de dados transacionais da empresa. 
E
a fase de carga de dados consiste em inserir os dados transformados nos bancos de dados transacionais da empresa. 
Ano: 2017 Banca: FEPESE Órgão: CIASC Prova: Analista - Analista de Sistemas (Desenvolvedor)
Um banco de dados de Big Data deve possuir pelo menos três aspectos, os chamados 3Vs do Big Data, que são:
A
Variedade; Volume; Valor.
B
Valor; Variabilidade; Velocidade.
C
Volume; Veracidade; Velocidade.
D
Veracidade; Velocidade; Variedade.
E
Velocidade; Volume; Variedade.
Ano: 2017 Banca: FEPESE Órgão: CIASC Prova: Analista - Analista de Sistemas (Desenvolvedor)
Assinale a alternativa que apresenta a operação OLAP que permite ao usuário aumentar o nível de detalhe da informação para ver mais detalhes. Com essa operação a granularidade da informação é diminuída.
A
Drill up
B
Drill down 
C
Slice Drill down
D
Dice Drill down
E
Slice and Dice
Ano: 2017 Banca: FEPESE Órgão: CIASC Prova: Analista - Analista de Sistemas (Desenvolvedor)
Assinale a alternativa que provê um sistema de serialização de dados que possua um formato de dados binário e compacto e que conta com um container para armazenar dados persistentes, em ambientes de big data Apache Hadoop.
A
Avro
B
Mahout
C
Chukwa
D
Spark
E
Tez
Ano: 2017 Banca: FEPESE Órgão: CIASC Prova: Analista - Analista de Sistemas (Desenvolvedor)
No contexto do Apache Hadoop, ‘Hive’ refere-se à(ao):
A
Banco de dados escalável que não possui um ponto único de falha.
B
Banco de dados distribuído e escalável que suporta o armazenamento de dados estruturados em tabelas muito grandes.
C
Infraestrutura de data warehouse que provê sumarização de dados e consultas ad hoc. 
D
Biblioteca de machine learning e data minning.
E
Sistema de coleções de dados para gerenciar grandes sistemas distribuídos.
Ano: 2017 Banca: FEPESE Órgão: CIASC Prova: Analista - Analista de Sistemas (Desenvolvedor)
Analise as afirmativas abaixo no contexto de modelagem preditiva.
1. As técnicas de armazenamento em cluster não requerem que o número de clusters seja fornecido antes do treinamento. Se o número for muito pequeno, o modelo pode perder semelhanças importantes nos dados de entrada. E se o número for muito grande, ele pode perder diferenças importantes.

2. Árvores de decisão, redes neurais e modelos de regressão empregam aprendizado supervisionado para criar a função de mapeamento entre um conjunto de campos de dados de entrada e uma variável de destino.

3. Backpropagation é um algoritmo que permite que um erro seja propagado de volta à rede neural, e que seja utilizado para ajustar os pesos das sinapses que ligam os nós da rede.

Assinale a alternativa que indica todas as afirmativas corretas.
A
É correta apenas a afirmativa 2.
B
São corretas apenas as afirmativas 1 e 2.
C
São corretas apenas as afirmativas 1 e 3.
D
São corretas apenas as afirmativas 2 e 3.
E
São corretas as afirmativas 1, 2 e 3.
Ano: 2016 Banca: ESAF Órgão: ANAC Prova: Analista Administrativo - Análise de Sistemas
Para o processamento de grandes massas de dados, no contexto de Big Data, é muito utilizada uma plataforma de software em Java, de computação distribuída, voltada para clusters, inspirada no MapReduce e no GoogleFS. Esta plataforma é o(a) 
A
Yam Common
B
GoogleCrush
C
EMRx
D
Hadoop
E
MapFix
Ano: 2016 Banca: ESAF Órgão: ANAC Prova: Analista Administrativo - Análise de Sistemas
Big Data é: 
A
volume + variedade + agilidade + efetividade, tudo agregando + valor + atualidade
B
volume + oportunidade + segurança + veracidade, tudo agregando + valor
C
dimensão + variedade + otimização + veracidade, tudo agregando + agilidade
D
volume + variedade + velocidade + veracidade, tudo agregando + valor
E
volume + disponibilidade + velocidade + portabilidade, tudo requerendo - valor
Um técnico de TI precisa utilizar um subconjunto de dados de um Data Warehouse direcionado à área administrativa de um Tribunal. Esses dados serão armazenados em um banco de dado modelado multidimensionalmente, que será criado capturando-se dados diretamente de sistemas transacionais, buscando as informações relevantes para os processos de negócio da área administrativa. Esse banco de dados será um 
A
Big Data.
B
Data Mart. 
C
OLAP. 
D
MOLAP. 
E
Data Mining. 
Página 1 de 2