Engenharia de Dados
MB-ED
O MBA em Engenharia de Dados (MB-ED) forma profissionais com certificação
Poli-UFRJ capacitados no processamento, interpretação e monitoramento de
dados, de modo a auxiliar na tomada de decisão durante todas as fases de
processo, seja ele de negócios, industrial ou tecnológico visando formar profissionais com um perfil inovador e tecnicamente preparado para aplicar os conceitos, ferramentas e métodos de gerenciamento no seu campo de atuação.
Conheça o curso
Edilberto Strauss
Coordenador
Doutor em Computer Science – Imperial College Of Science Technology And Medicine Of London (1996), mestre em Engenharia Mecânica pela Pontifícia Universidade Católica do Rio de Janeiro (1992) e graduado em Engenharia Mecânica pelo Centro Federal de Educação Tecnológica Celso Suckow da Fonseca (1986).
Atuou como coordenador do Curso de Engenharia de Computação e Informação (ECI) da Universidade Federal do Rio de Janeiro, de 2004 a 2009. Foi coordenador regional (RJ) do Mestrado Profissional em Computação Aplicada da Universidade Estadual do Ceará (MPCOMP – UECE), no período de 2010 a 2014.
Atualmente é professor adjunto da Universidade Federal do Rio de Janeiro.
Coordena cursos de Pós-Graduação lato-sensu na Poli/UFRJ desde 2005, tendo coordenado um total de 44 turmas.
Tem experiência na área de Ciência da Computação, com ênfase em Banco de Dados, Computação Gráfica, Processamento de Imagens, Modelagem Geométrica, Sistemas de Apoio à de Decisão (SAD), Machine Learn, Data Mining, Governança de Tecnologia da Informação e Gerenciamento de Projetos.
Módulo |
Disciplina |
Docente |
Horas |
Metodologia de Pesquisa |
Manoel Junior Villas Boas, M. Sc |
20 |
|
Básico |
Introdução à Banco de Dados |
André Pinheiro, D.Sc. |
15 |
Introdução a Computação |
Franklin Marquezino, D. Sc. |
20 |
|
Quântica |
|||
Governança de Dados |
Sergio Manuel Serra Da Cruz, D. Sc |
20 |
|
Inteligência de Negócios |
Otávio Santi, M. Sc |
20 |
|
Visão Computacional |
Marcelo Carvalho, M. Sc. |
20 |
|
Fundamentos de Big Data |
Claudio Miceli, D. Sc. |
15 |
|
Fundamentos Estatísticos |
Tarcisio Brum, D. Sc. |
20 |
|
Análise de Dados com |
Otávio Santi, M. Sc. |
20 |
|
Dashboards de Negócio |
|||
Data Warehouse e |
Claudio Miceli, D. Sc. |
20 |
|
Computação em Nuvem |
|||
Linguagem Python |
Gabriela Amorim, D.Sc. |
25 |
|
Banco de Dados Autônomos |
Luiz Ribeiro, M. Sc. |
20 |
|
Aplicações ETL (Extração, |
Sergio Manuel Serra Da Cruz, D.Sc. |
20 |
|
Transformação e |
|||
Carregamento) |
Avançado |
Data Lake |
Luiz Ribeiro, M. Sc. |
25 |
Modelagem MAP Reduce |
Diego Dutra, D. Sc. |
20 |
|
FUNDAMENTOS DE BIG DATA
Estudo de métodos para gerenciar a incalculável quantidade de dados continuamente gerados, remetendo à análise e busca de respostas em relação às áreas
onde o Big Data está sendo utilizado, na análise de dados históricos e padrões.
Arquitetura de Soluções Big Data; Pipeline cobrindo desde a coleta à visualização de dados; Exemplos de utilização de tecnologias ditas Big Data em
diversas áreas, como por exemplo, médica, vendas, educação, financeira, etc.
FUNDAMENTOS ESTATÍSTICOS
Tem havido uma explosão no uso de modelos estocásticos e no desenvolvimento de métodos de inferência bastante sofisticados em computação. Algumas das áreas que vem usando intensamente estes modelos são: robótica
probabilística, processamento de linguagem natural, recuperação de informação, redes de sensores e análise de redes sociais. Além destas aplicações,
existem as áreas de aprendizado de máquina, mineração de dados e modelos
gráficos, ensinadas em quase todos os programas de excelência em ciência
da computação. É impossível desenvolver pesquisa de qualidade nestas últimas três áreas sem um sólido conhecimento de probabilidade e estatística. A
cadeira visa a oferecer os fundamentos básicos de probabilidade, processos
estocásticos e inferência para análise onde o objetivo é que os alunos possam
acompanhar e desenvolver novas idéias nos campos de aplicação de computação que têm usado métodos estocásticos com intensidade.
Programa Básico: Revisão de Probabilidade: Regra de Bayes, Distribuições
conjuntas e condicionais; Principais distribuições, Momentos e Convergência
de variáveis aleatórias; Princípios de Inferência; Método de Máxima verossimilhança; Intervalos de confiança e testes estatísticos; Modelos de análise de
dados; Seleção de Modelos: entropia e critério de informação de Akaike.
INTRODUÇÃO A COMPUTAÇÃO QUÂNTICA
Baseado em conceitos da Mecânica Quântica esse tipo de computação faz cálculos avançados, mas também exige que desenvolvedores aprendam conceitos
diferentes do que eles usam na computação clássica. Uma boa comparação é a
de que, enquanto a computação clássica apela a conhecimentos de lógica e de
matemática, a computação quântica usa conceitos de física moderna.
Programa Básico: Fundamentos da Computação Quântica; Conceitos e algoritmos básicos da computação quântica; Quantum Katas, etc.; Experiências do
usuário; Desenvolver eficiências operacionais.
INTRODUÇÃO A BANCO DE DADOS
Os conjuntos de dados estão se tornando cada vez maiores porque os dados
estão sendo recolhidos por fontes cada vez mais comuns, como celulares, drones, logs da Internet, câmeras, microfones, leitores de RFID etc. Aprender a
trabalhar e estruturar base de dados abre as portas profissionais para o apoio
à inteligência das organizações.
Programa Básico: Banco de Dados Relacional; Banco de Dados Distribuídos;
Bancos noSQL; Arquitetura de Dados; Abstração de Dados; Modelagem Conceitual de Dados; Fundamentos de Projeto de Banco de Dados; Projeto Conceitual de Banco de Dados; Projeto Lógico de Banco de Dados; Projeto Físico
de Banco de Dados; Projeto de Banco de Dados Orientado a Objetos; Administração de Dados; Banco de Dados Não Convencionais, etc.
MODELAGEM MAP REDUCE
Fornecer a compreensão do funcionamento da técnica MapReduce, mostrando como ajuda no desenvolvimento de aplicações críticas que trabalham com
BigData, que são bancos de dados difíceis de serem manipulados por tecnologias convencionais. Entretanto, a adoção de uma implementação MapReduce,
como o Hadoop, por exemplo, requer habilidades específicas sobre o modelo
de programação MapReduce, que introduz novas exigências na forma de modelar a abstração sobre os dados e processar BigData.
Programa Básico: Padrões de design para MapReduce. Tunning. Combine. Aplicação do Spark em problemas modelados por MapReduce.
BANCO DE DADOS AUTÔNOMOS
Estudo do novo conceito de banco de dados autônomo, onde várias tarefas
que eram realizadas manualmente, como otimização, reparação e até instalação de patches de segurança, deixam de existir para o DBA, porque isso é feito
pela própria database. Por melhor que seja o profissional, humanos podem cometer erros. Em uma operação autônoma, com inteligência artificial e machine
learning, os erros humanos são drasticamente reduzidos.
Programa Básico: Autoexecução: com base em machine learning, faz otimizações de desempenho de forma contínua, com processos de cache automático,
indexação adaptável e compressão avançada. Também ajusta instantaneamente os recursos de processamento e armazenamento de dados; Autoproteção:
instala atualizações de segurança sem intervenção humana e sem que o banco de dados saia do ar. Protege e criptografa os dados da empresa contra
ataques cibernéticos, tanto internos quanto externos; Autorreparação: proteção autônoma contra tempos de indisponibilidade, com SLA (Service Level of
Agreement) de 99,995% de confiabilidade. As tarefas de manutenção são executadas automaticamente pelo banco de dados, sem downtime; Conceitos de
Elasticidade; Alta disponibilidade.
DATA LAKE
Os Data Lakes vem ganhando cada vez mais espaço nas empresas orientadas
a dados e que extraem do Big Data o melhor que ele tem a oferecer: insights
preciosos para a tomada de decisões. Os Data Lakes são projetados para o
consumo de dados – o processo que envolve a coleta, importação e processamento de dados para armazenamento ou uso posterior. O aluno aprenderá não
só como implementar um Data Lake de forma eficiente e profissional, como
também aprenderá as principais técnicas para ingestão de dados em batch e
streaming, carga de dados, processamento e integração com outros repositórios em um Enterprise Data Hub. Com uma crescente gama de aplicações
que exploram Big Data, os dados devem ser suportados por componentes que
possuem uma infraestrutura adequada.
Programa Básico: O Que São Data Lakes?; Data Lake – Design; Data Lake – Camada de Mensagens; Data Lake – Armazenamento de Dados; Data Lake – Deploy, Rollout e Boas Práticas, etc.
DATA WAREHOUSE E COMPUTAÇÃO EM NUVEM
Nesta cadeira, o aluno aprenderá os conceitos, as estratégias e as melhores
práticas para o projeto de uma solução de data warehousing baseada na nuvem usando o Amazon Redshift, o data warehouse na escala de petabytes da
AWS. Demonstraremos como coletar, armazenar e preparar dados para o data
warehouse, também exploraremos como usar ferramentas de inteligência de
negócios (BI) para executar análises nos dados.
Programa Básico: Avaliar o relacionamento entre o Amazon Redshift e outros
sistemas de big data; Avaliar casos de uso de cargas de trabalho de data warehousing e examinar implementações reais de serviços de dados e análises
da AWS como parte de uma solução de data warehousing; Avaliar as abordagens e metodologias de projeto de data warehouses; Identificar fontes de
dados e avaliar requisitos que afetam o projeto do data warehouse; Projetar o
data warehouse para uso eficiente dos métodos de compactação, distribuição
de dados e classificação; Carregar e descarregar dados e executar tarefas de
manutenção de dados; Escrever consultas e avaliar planos de consulta para
otimizar sua performance; Configurar o banco de dados para alocar recursos,
como memória para filas de consulta, e definir critérios para rotear determinados tipos de consulta para suas filas de consulta configuradas para aprimorar
o processamento; Usar um aplicativo de inteligência de negócios (BI) para executar análise de dados e tarefas de visualização nos seus dados.
DATA MINING
Fornecer ao aluno o aprendizado sobre Data Mining que consiste em um processo analítico projetado para explorar grandes quantidades de dados (tipicamente relacionados a negócios, mercado ou pesquisas científicas), na busca
de padrões consistentes e/ou relacionamentos sistemáticos entre variáveis e,
então, validá-los aplicando os padrões detectados a novos subconjuntos de
dados. O processo consiste basicamente em 3 etapas: exploração, construção
de modelo ou definição do padrão e validação/verificação. A premissa do Data
Mining é uma argumentação ativa, isto é, em vez do usuário definir o problema,
selecionar os dados e as ferramentas para analisar tais dados, as ferramentas
do Data Mining pesquisam automaticamente os mesmos a procura de anomalias e possíveis relacionamentos, identificando assim problemas que não
tinham sido identificados pelo usuário.
Programa Básico: Análise Estatística de Dados, Tratamento de dados para os
processos de Data Mining, O Processo de Descoberta de Conhecimento em
Bancos de Dados, Data Mining, suas principais funcionalidades, técnicas e algoritmos, Análise de Associações, Classificação de Dados, Árvores de Decisão,
Regressão Logística, Redes Neurais, Segmentação e Análise de Cluster, Estudos de casos com Aplicações de Data Mining a CRM Analítico, Redução de
Inadimplência, Detecção de Fraude, etc.
BUSINESS INTELLIGENCE
Fornecer ao aluno o aprendizado sobre o processo de coleta, organização,
análise, compartilhamento e monitoramento de informações que oferecem
suporte a gestão de negócios. Mostrar o conjunto de teorias, metodologias,
processos, estruturas e tecnologias que transformam uma grande quantidade
de dados brutos em informação útil para tomadas de decisões estratégicas.
Programa Básico: Business Intelligence. Arquitetura e soluções de Business
Intelligence. Data Warehouse. Aplicações ETL. A importância das Ferramentas
de BI. As aplicações de BI front-end. BI: primeiros passos: Por que implementar
um projeto de Business Intelligence? É caro implementar uma solução de Business Intelligence? O que fazer para reduzir os riscos nesse início?
APLICAÇÕES ETL
No contexto do Data Warehouse (DW) e Business Intelligence (BI) ouvimos
muito falar sobre o processo de ETL que trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais (OLTP)
para a inserção, geralmente, em um Data Wharehouse ou Data Mart.
Programa Básico: O que é o processo ETL; Requisitos para ETL; Conceitos de
Dimensões; Conceitos de Fatos; Modelagem Dimensional; Staging Área; Processo de carga; Principais ferramentas de ETL;
VISÃO COMPUTACIONAL
Estudo da aplicação da ciência que obtém informações de imagens ou dados multi-dimensionais. As áreas típicas de aplicação são de reconhecimento, estimativa
de movimento, reconstrução e restauração de imagens. Cada uma dessas áreas
possuem sistemas típicos com algumas funções básicas para atingir seus objetivos,
como aquisição de imagem, extração de características, detecção e segmentação,
processamento de alto nível, etc.
Programa Básico: Processamento de Imagens; Filtros e Atributos; Tratamento e
Descritores de Imagens; Detecção de Faces e Reconhecimento Facial; Detecção e
Segmentação de Objetos; Processamento de Vídeos e Real Time Object Detection;
Machine Learn para Classificação de Imagens; Deep Learning para Visão Computacional; Visão Computacional em Smartphones, etc.
MACHINE LEARNING
Fornecer ao aluno o aprendizado para projetar o desenvolvimento de soluções
baseadas em Machine learning. Efetuando uma análse em grandes quantidades de dados por meio de métodos estatísticos específicos, utilizando-se de
técnicas variadas de algoritmos para encontrar padrões no banco de dados.
Com base nesses padrões, fazer determinações ou predições.
Programa Básico: Técnicas de Machine Learn, aprendizagem de algoritmos
supervisionada e a não supervisionada; métodos de regressão, classificação, clustering e afins;
DEEP LEARNING
Fornecer iniciativas que envolvam a modelagem, implementação e validação
de sistemas inteligentes, para a solução dos mais diversos tipos de problemas
atuais. Conheça as melhores alternativas para aplicação de algoritmos e modelos computacionais inteligentes.
Programa Básico: Fundamentos de Deep Learning; Análise de Viés em Inteligência Artificial; Aplicações com Deep Learning; Classificação, Predição e Simulação com Deep Learning; Frameworks para Redes Neurais; Limitações de
Redes Neurais; Modelagem de Problemas com Deep Learning; Detecção de
Anomalias com Deep Learning; Processamento de Linguagem Natural; Visão
Computacional com Deep Learning.
HADOOP E SPARK
Fornecer aos alunos conhecimentos dos conceitos e técnicas associados ao
Hadoop, mostrando como pode ser visto o framework para desenvolvimento
de aplicações distribuidas, com alta escalabilidade, confiabilidade e tolerância a falhas. Spark é um framework para processamento de Big Data construído com foco em velocidade, facilidade de uso e análises sofisticadas. Oferece
APIs de alto nível, bem como um conjunto de bibliotecas que o tornam capaz
de trabalhar de forma integrada, em uma mesma aplicação, com SQL, streaming e análises complexas, para lidar com uma grande variedade de situações
de processamento de dados.
Programa Básico: Hadoop e Spark como frameworks; Papel desempenhado
por servidores master e slaves; Modelo de programação Map Reduce; Ecossistema Hadoop (HDFS, Hive, HBase, Mahout, Pig, Oozie, Flume, Scoop, Spark/
shark); Papéis Task tracker, Data node, Job tracker e Name node; Tolerância a falhas; Clusterização;
LINGUAGEM SCALA
Scala é uma linguagem de programação relativamente nova. Mesmo assim, nos
últimos anos, conquistou empresas gigantes como o Twitter e o Foursquare. Uma
das primeiras diferenças entre Scala e uma linguagem como Java, é que Scala
também suporta o paradigma funcional. Isso por si só abre muitas possibilidades.
Programa Básico: Introdução a Scala; Introdução ao SBT; Frameworks de testes; Introdução a tipos e inferência de tipos; Orientação a Objetos em Scala;
Pattern matching; Programação funcional em Scala; API de coleções da linguagem Scala; Akka 2; Play 2; Apache Spark
LINGUAGEM PYTHON
Será demonstrado como usar todo o poder do Python para analisar dados, criar
excelentes visualizações e usar algoritmos de Machine Learning poderosíssimos.
Programa Básico: Programação com Python; NumPy; DataFrames de pandas
para resolver tarefas complexas; Pandas para lidar com arquivos Excel; Obtenção de dados na Web; Matplotlib e Seaborn para visualizações de dados;
Plotly para visualizações interativas; Regressão linear; K nearest neighbors; K
Means Clustering; Árvores de decisão; Florestas aleatórias; Processamento de
linguagem natural; Suporte Máquinas Vector; Algoritmos de sistemas de recomendação (NetFlix, Youtube, Amazon, Spotify), etc.
ANÁLISE DE DADOS COM DASHBOARDS DE NEGÓCIO
Capacitar o aluno no desenvolvimento e implementação de Dashboard com as
principais informações financeiras, comerciais, recursos humanos, logísticas e
dos processos de manutenção da empresa.
Programa Básico: Introdução a Dashboards, introdução a projetos de BI e Data
Warehouse – Conceitos. Categorias dos Dashboards, estrutura e utilizando
métricas e indicadores. Estudos de Gráficos e objetos Visuais: Gráficos/Textos/Alertas. Os erros mais comuns na construção de um Dashboard. Boas Práticas de Construção de Dashboards. Principais Metas para um Dashboard Visual. Desenvolvendo Dashboards Empresariais.
METODOLOGIA DE PESQUISA CIENTÍFICA
Objetivo: Formalização de técnicas e metodologias aplicadas à pesquisa científica, com ênfase sobre a pesquisa WEB e técnicas para a escrita de Monografia, Tese, Relatórios, “Papers”.
Programa básico: Introdução. O Conhecimento. A Ciência e suas Características. A Pesquisa Científica e o Desenvolvimento Tecnológico. O Método Científico e Suas Aplicações. Uso do Método Científico no Cotidiano Acadêmico e
Profissional. Planejamento de uma Pesquisa. O Projeto de Pesquisa e sua Elaboração. A Comunicação Científica: Monografia, Tese, Relatórios, “Papers”.
ORIENTAÇÃO DE PROJETO FINAL
Ao final do curso os alunos para receberem o certificado de pós-graduação
deverão apresentar um projeto final na forma de monografia, usando os conceitos aprendidos durante todo o treinamento recebido. Para este trabalho
terão uma orientação técnica dos coordenadores do curso. Enfatizamos que
este trabalho deverá ser individual.
Metodologia: Estudo e pesquisa sobre bibliografia, com a orientação de um
professor docente do Curso.
CURSO HÍBRIDO
O MBA pode ser cursado presencialmente ou através da plataforma ZOOM.
DOCUMENTOS NECESSÁRIOS
Curriculum vitae
Cópia Histórico escolar
Cópia da Carteira de Identidade (não pode ser de motorista)
Cópia do CPF
Cópia do Título de Eleitor
Cópia do diploma de graduação frente/verso
Cópia do Certificado de reservista (para homens)
1 foto 3×4 e outra Digital
ENTRE EM CONTATO CONOSCO
E-mail: itlab@poli.ufrj.br
Telefone: 21 99158-3044