Engenharia de Dados

MB-ED

Matrículas abertas
Carga horária 395 horas
Duração 15 meses
Data de Início maio/2024
Modalidade Remoto
Cadastre-se para receber todas as informações sobre o curso.

    MBA em Engenharia de Dados (MB-ED) forma profissionais com certificação
    Poli-UFRJ capacitados no processamento, interpretação e monitoramento de
    dados, de modo a auxiliar na tomada de decisão durante todas as fases de
    processo, seja ele de negócios, industrial ou tecnológico visando formar profissionais com um perfil inovador e tecnicamente preparado para aplicar os conceitos, ferramentas e métodos de gerenciamento no seu campo de atuação.

    Conheça o curso

    Edilberto Strauss

    Coordenador

    Doutor em Computer Science – Imperial College Of Science Technology And Medicine Of London (1996), mestre em Engenharia Mecânica pela Pontifícia Universidade Católica do Rio de Janeiro (1992) e graduado em Engenharia Mecânica pelo Centro Federal de Educação Tecnológica Celso Suckow da Fonseca (1986).

    Atuou como coordenador do Curso de Engenharia de Computação e Informação (ECI) da Universidade Federal do Rio de Janeiro, de 2004 a 2009. Foi coordenador regional (RJ) do Mestrado Profissional em Computação Aplicada da Universidade Estadual do Ceará (MPCOMP – UECE), no período de 2010 a 2014.

    Atualmente é professor adjunto da Universidade Federal do Rio de Janeiro.

    Coordena cursos de Pós-Graduação lato-sensu na Poli/UFRJ desde 2005, tendo coordenado um total de 44 turmas.

    Tem experiência na área de Ciência da Computação, com ênfase em Banco de Dados, Computação Gráfica, Processamento de Imagens, Modelagem Geométrica, Sistemas de Apoio à de Decisão (SAD), Machine Learn, Data Mining, Governança de Tecnologia da Informação e Gerenciamento de Projetos.

    Módulo

    Disciplina

    Docente

    Horas

    Metodologia de Pesquisa

    Manoel Junior Villas Boas, M. Sc

    20

    Básico

    Introdução à Banco de Dados

    André Pinheiro, D.Sc.

    15

    Introdução a Computação

    Franklin Marquezino, D. Sc.

    20

    Quântica

    Governança de Dados

    Sergio Manuel Serra Da Cruz, D. Sc

    20

    Inteligência de Negócios

    Otávio Santi, M. Sc

    20

    Visão Computacional

    Marcelo Carvalho, M. Sc.

    20

    Fundamentos de Big Data

    Claudio Miceli, D. Sc.

    15

    Fundamentos Estatísticos

    Tarcisio Brum, D. Sc.

    20

    Análise de Dados com

    Otávio Santi, M. Sc.

    20

    Dashboards de Negócio

    Data Warehouse e

    Claudio Miceli, D. Sc.

    20

    Computação em Nuvem

    Linguagem Python

    Gabriela Amorim, D.Sc.

    25

    Banco de Dados Autônomos

    Luiz Ribeiro, M. Sc.

    20

    Aplicações ETL (Extração,

    Sergio Manuel Serra Da Cruz, D.Sc.

    20

    Transformação e

    Carregamento)

    Avançado

    Data Lake

    Luiz Ribeiro, M. Sc.

    25

    Modelagem MAP Reduce

    Diego Dutra, D. Sc.

    20

     

    FUNDAMENTOS DE BIG DATA

    Estudo de métodos para gerenciar a incalculável quantidade de dados continuamente gerados, remetendo à análise e busca de respostas em relação às áreas
    onde o Big Data está sendo utilizado, na análise de dados históricos e padrões.
    Arquitetura de Soluções Big Data; Pipeline cobrindo desde a coleta à visualização de dados; Exemplos de utilização de tecnologias ditas Big Data em
    diversas áreas, como por exemplo, médica, vendas, educação, financeira, etc.

    FUNDAMENTOS ESTATÍSTICOS

    Tem havido uma explosão no uso de modelos estocásticos e no desenvolvimento de métodos de inferência bastante sofisticados em computação. Algumas das áreas que vem usando intensamente estes modelos são: robótica
    probabilística, processamento de linguagem natural, recuperação de informação, redes de sensores e análise de redes sociais. Além destas aplicações,
    existem as áreas de aprendizado de máquina, mineração de dados e modelos
    gráficos, ensinadas em quase todos os programas de excelência em ciência
    da computação. É impossível desenvolver pesquisa de qualidade nestas últimas três áreas sem um sólido conhecimento de probabilidade e estatística. A
    cadeira visa a oferecer os fundamentos básicos de probabilidade, processos
    estocásticos e inferência para análise onde o objetivo é que os alunos possam
    acompanhar e desenvolver novas idéias nos campos de aplicação de computação que têm usado métodos estocásticos com intensidade.
    Programa Básico: Revisão de Probabilidade: Regra de Bayes, Distribuições
    conjuntas e condicionais; Principais distribuições, Momentos e Convergência
    de variáveis aleatórias; Princípios de Inferência; Método de Máxima verossimilhança; Intervalos de confiança e testes estatísticos; Modelos de análise de
    dados; Seleção de Modelos: entropia e critério de informação de Akaike.

    INTRODUÇÃO A COMPUTAÇÃO QUÂNTICA

    Baseado em conceitos da Mecânica Quântica esse tipo de computação faz cálculos avançados, mas também exige que desenvolvedores aprendam conceitos
    diferentes do que eles usam na computação clássica. Uma boa comparação é a
    de que, enquanto a computação clássica apela a conhecimentos de lógica e de
    matemática, a computação quântica usa conceitos de física moderna.
    Programa Básico: Fundamentos da Computação Quântica; Conceitos e algoritmos básicos da computação quântica; Quantum Katas, etc.; Experiências do
    usuário; Desenvolver eficiências operacionais.

    INTRODUÇÃO A BANCO DE DADOS

    Os conjuntos de dados estão se tornando cada vez maiores porque os dados
    estão sendo recolhidos por fontes cada vez mais comuns, como celulares, drones, logs da Internet, câmeras, microfones, leitores de RFID etc. Aprender a
    trabalhar e estruturar base de dados abre as portas profissionais para o apoio
    à inteligência das organizações.
    Programa Básico: Banco de Dados Relacional; Banco de Dados Distribuídos;
    Bancos noSQL; Arquitetura de Dados; Abstração de Dados; Modelagem Conceitual de Dados; Fundamentos de Projeto de Banco de Dados; Projeto Conceitual de Banco de Dados; Projeto Lógico de Banco de Dados; Projeto Físico
    de Banco de Dados; Projeto de Banco de Dados Orientado a Objetos; Administração de Dados; Banco de Dados Não Convencionais, etc.

    MODELAGEM MAP REDUCE

    Fornecer a compreensão do funcionamento da técnica MapReduce, mostrando como ajuda no desenvolvimento de aplicações críticas que trabalham com
    BigData, que são bancos de dados difíceis de serem manipulados por tecnologias convencionais. Entretanto, a adoção de uma implementação MapReduce,
    como o Hadoop, por exemplo, requer habilidades específicas sobre o modelo
    de programação MapReduce, que introduz novas exigências na forma de modelar a abstração sobre os dados e processar BigData.
    Programa Básico: Padrões de design para MapReduce. Tunning. Combine. Aplicação do Spark em problemas modelados por MapReduce.

    BANCO DE DADOS AUTÔNOMOS

    Estudo do novo conceito de banco de dados autônomo, onde várias tarefas
    que eram realizadas manualmente, como otimização, reparação e até instalação de patches de segurança, deixam de existir para o DBA, porque isso é feito
    pela própria database. Por melhor que seja o profissional, humanos podem cometer erros. Em uma operação autônoma, com inteligência artificial e machine
    learning, os erros humanos são drasticamente reduzidos.
    Programa Básico: Autoexecução: com base em machine learning, faz otimizações de desempenho de forma contínua, com processos de cache automático,
    indexação adaptável e compressão avançada. Também ajusta instantaneamente os recursos de processamento e armazenamento de dados; Autoproteção:
    instala atualizações de segurança sem intervenção humana e sem que o banco de dados saia do ar. Protege e criptografa os dados da empresa contra
    ataques cibernéticos, tanto internos quanto externos; Autorreparação: proteção autônoma contra tempos de indisponibilidade, com SLA (Service Level of
    Agreement) de 99,995% de confiabilidade. As tarefas de manutenção são executadas automaticamente pelo banco de dados, sem downtime; Conceitos de
    Elasticidade; Alta disponibilidade.

    DATA LAKE

    Os Data Lakes vem ganhando cada vez mais espaço nas empresas orientadas
    a dados e que extraem do Big Data o melhor que ele tem a oferecer: insights
    preciosos para a tomada de decisões. Os Data Lakes são projetados para o
    consumo de dados – o processo que envolve a coleta, importação e processamento de dados para armazenamento ou uso posterior. O aluno aprenderá não
    só como implementar um Data Lake de forma eficiente e profissional, como
    também aprenderá as principais técnicas para ingestão de dados em batch e
    streaming, carga de dados, processamento e integração com outros repositórios em um Enterprise Data Hub. Com uma crescente gama de aplicações
    que exploram Big Data, os dados devem ser suportados por componentes que
    possuem uma infraestrutura adequada.
    Programa Básico: O Que São Data Lakes?; Data Lake – Design; Data Lake – Camada de Mensagens; Data Lake – Armazenamento de Dados; Data Lake – Deploy, Rollout e Boas Práticas, etc.

    DATA WAREHOUSE E COMPUTAÇÃO EM NUVEM

    Nesta cadeira, o aluno aprenderá os conceitos, as estratégias e as melhores
    práticas para o projeto de uma solução de data warehousing baseada na nuvem usando o Amazon Redshift, o data warehouse na escala de petabytes da
    AWS. Demonstraremos como coletar, armazenar e preparar dados para o data
    warehouse, também exploraremos como usar ferramentas de inteligência de
    negócios (BI) para executar análises nos dados.
    Programa Básico: Avaliar o relacionamento entre o Amazon Redshift e outros
    sistemas de big data; Avaliar casos de uso de cargas de trabalho de data warehousing e examinar implementações reais de serviços de dados e análises
    da AWS como parte de uma solução de data warehousing; Avaliar as abordagens e metodologias de projeto de data warehouses; Identificar fontes de
    dados e avaliar requisitos que afetam o projeto do data warehouse; Projetar o
    data warehouse para uso eficiente dos métodos de compactação, distribuição
    de dados e classificação; Carregar e descarregar dados e executar tarefas de
    manutenção de dados; Escrever consultas e avaliar planos de consulta para
    otimizar sua performance; Configurar o banco de dados para alocar recursos,
    como memória para filas de consulta, e definir critérios para rotear determinados tipos de consulta para suas filas de consulta configuradas para aprimorar
    o processamento; Usar um aplicativo de inteligência de negócios (BI) para executar análise de dados e tarefas de visualização nos seus dados.

    DATA MINING

    Fornecer ao aluno o aprendizado sobre Data Mining que consiste em um processo analítico projetado para explorar grandes quantidades de dados (tipicamente relacionados a negócios, mercado ou pesquisas científicas), na busca
    de padrões consistentes e/ou relacionamentos sistemáticos entre variáveis e,
    então, validá-los aplicando os padrões detectados a novos subconjuntos de
    dados. O processo consiste basicamente em 3 etapas: exploração, construção
    de modelo ou definição do padrão e validação/verificação. A premissa do Data
    Mining é uma argumentação ativa, isto é, em vez do usuário definir o problema,
    selecionar os dados e as ferramentas para analisar tais dados, as ferramentas
    do Data Mining pesquisam automaticamente os mesmos a procura de anomalias e possíveis relacionamentos, identificando assim problemas que não
    tinham sido identificados pelo usuário.
    Programa Básico: Análise Estatística de Dados, Tratamento de dados para os
    processos de Data Mining, O Processo de Descoberta de Conhecimento em
    Bancos de Dados, Data Mining, suas principais funcionalidades, técnicas e algoritmos, Análise de Associações, Classificação de Dados, Árvores de Decisão,
    Regressão Logística, Redes Neurais, Segmentação e Análise de Cluster, Estudos de casos com Aplicações de Data Mining a CRM Analítico, Redução de
    Inadimplência, Detecção de Fraude, etc.

    BUSINESS INTELLIGENCE

    Fornecer ao aluno o aprendizado sobre o processo de coleta, organização,
    análise, compartilhamento e monitoramento de informações que oferecem
    suporte a gestão de negócios. Mostrar o conjunto de teorias, metodologias,
    processos, estruturas e tecnologias que transformam uma grande quantidade
    de dados brutos em informação útil para tomadas de decisões estratégicas.
    Programa Básico: Business Intelligence. Arquitetura e soluções de Business
    Intelligence. Data Warehouse. Aplicações ETL. A importância das Ferramentas
    de BI. As aplicações de BI front-end. BI: primeiros passos: Por que implementar
    um projeto de Business Intelligence? É caro implementar uma solução de Business Intelligence? O que fazer para reduzir os riscos nesse início?

    APLICAÇÕES ETL

    No contexto do Data Warehouse (DW) e Business Intelligence (BI) ouvimos
    muito falar sobre o processo de ETL que trata da sistematização do tratamento e limpeza dos dados oriundos dos diversos sistemas organizacionais (OLTP)
    para a inserção, geralmente, em um Data Wharehouse ou Data Mart.
    Programa Básico: O que é o processo ETL; Requisitos para ETL; Conceitos de
    Dimensões; Conceitos de Fatos; Modelagem Dimensional; Staging Área; Processo de carga; Principais ferramentas de ETL;

    VISÃO COMPUTACIONAL

    Estudo da aplicação da ciência que obtém informações de imagens ou dados multi-dimensionais. As áreas típicas de aplicação são de reconhecimento, estimativa
    de movimento, reconstrução e restauração de imagens. Cada uma dessas áreas
    possuem sistemas típicos com algumas funções básicas para atingir seus objetivos,
    como aquisição de imagem, extração de características, detecção e segmentação,
    processamento de alto nível, etc.
    Programa Básico: Processamento de Imagens; Filtros e Atributos; Tratamento e
    Descritores de Imagens; Detecção de Faces e Reconhecimento Facial; Detecção e
    Segmentação de Objetos; Processamento de Vídeos e Real Time Object Detection;
    Machine Learn para Classificação de Imagens; Deep Learning para Visão Computacional; Visão Computacional em Smartphones, etc.

    MACHINE LEARNING

    Fornecer ao aluno o aprendizado para projetar o desenvolvimento de soluções
    baseadas em Machine learning. Efetuando uma análse em grandes quantidades de dados por meio de métodos estatísticos específicos, utilizando-se de
    técnicas variadas de algoritmos para encontrar padrões no banco de dados.
    Com base nesses padrões, fazer determinações ou predições.
    Programa Básico: Técnicas de Machine Learn, aprendizagem de algoritmos
    supervisionada e a não supervisionada; métodos de regressão, classificação, clustering e afins;

    DEEP LEARNING

    Fornecer iniciativas que envolvam a modelagem, implementação e validação
    de sistemas inteligentes, para a solução dos mais diversos tipos de problemas
    atuais. Conheça as melhores alternativas para aplicação de algoritmos e modelos computacionais inteligentes.
    Programa Básico: Fundamentos de Deep Learning; Análise de Viés em Inteligência Artificial; Aplicações com Deep Learning; Classificação, Predição e Simulação com Deep Learning; Frameworks para Redes Neurais; Limitações de
    Redes Neurais; Modelagem de Problemas com Deep Learning; Detecção de
    Anomalias com Deep Learning; Processamento de Linguagem Natural; Visão
    Computacional com Deep Learning.

    HADOOP E SPARK

    Fornecer aos alunos conhecimentos dos conceitos e técnicas associados ao
    Hadoop, mostrando como pode ser visto o framework para desenvolvimento
    de aplicações distribuidas, com alta escalabilidade, confiabilidade e tolerância a falhas. Spark é um framework para processamento de Big Data construído com foco em velocidade, facilidade de uso e análises sofisticadas. Oferece
    APIs de alto nível, bem como um conjunto de bibliotecas que o tornam capaz
    de trabalhar de forma integrada, em uma mesma aplicação, com SQL, streaming e análises complexas, para lidar com uma grande variedade de situações
    de processamento de dados.
    Programa Básico: Hadoop e Spark como frameworks; Papel desempenhado
    por servidores master e slaves; Modelo de programação Map Reduce; Ecossistema Hadoop (HDFS, Hive, HBase, Mahout, Pig, Oozie, Flume, Scoop, Spark/
    shark); Papéis Task tracker, Data node, Job tracker e Name node; Tolerância a falhas; Clusterização;

    LINGUAGEM SCALA

    Scala é uma linguagem de programação relativamente nova. Mesmo assim, nos
    últimos anos, conquistou empresas gigantes como o Twitter e o Foursquare. Uma
    das primeiras diferenças entre Scala e uma linguagem como Java, é que Scala
    também suporta o paradigma funcional. Isso por si só abre muitas possibilidades.
    Programa Básico: Introdução a Scala; Introdução ao SBT; Frameworks de testes; Introdução a tipos e inferência de tipos; Orientação a Objetos em Scala;
    Pattern matching; Programação funcional em Scala; API de coleções da linguagem Scala; Akka 2; Play 2; Apache Spark

    LINGUAGEM PYTHON

    Será demonstrado como usar todo o poder do Python para analisar dados, criar
    excelentes visualizações e usar algoritmos de Machine Learning poderosíssimos.
    Programa Básico: Programação com Python; NumPy; DataFrames de pandas
    para resolver tarefas complexas; Pandas para lidar com arquivos Excel; Obtenção de dados na Web; Matplotlib e Seaborn para visualizações de dados;
    Plotly para visualizações interativas; Regressão linear; K nearest neighbors; K
    Means Clustering; Árvores de decisão; Florestas aleatórias; Processamento de
    linguagem natural; Suporte Máquinas Vector; Algoritmos de sistemas de recomendação (NetFlix, Youtube, Amazon, Spotify), etc.

    ANÁLISE DE DADOS COM DASHBOARDS DE NEGÓCIO

    Capacitar o aluno no desenvolvimento e implementação de Dashboard com as
    principais informações financeiras, comerciais, recursos humanos, logísticas e
    dos processos de manutenção da empresa.
    Programa Básico: Introdução a Dashboards, introdução a projetos de BI e Data
    Warehouse – Conceitos. Categorias dos Dashboards, estrutura e utilizando
    métricas e indicadores. Estudos de Gráficos e objetos Visuais: Gráficos/Textos/Alertas. Os erros mais comuns na construção de um Dashboard. Boas Práticas de Construção de Dashboards. Principais Metas para um Dashboard Visual. Desenvolvendo Dashboards Empresariais.

    METODOLOGIA DE PESQUISA CIENTÍFICA

    Objetivo: Formalização de técnicas e metodologias aplicadas à pesquisa científica, com ênfase sobre a pesquisa WEB e técnicas para a escrita de Monografia, Tese, Relatórios, “Papers”.
    Programa básico: Introdução. O Conhecimento. A Ciência e suas Características. A Pesquisa Científica e o Desenvolvimento Tecnológico. O Método Científico e Suas Aplicações. Uso do Método Científico no Cotidiano Acadêmico e
    Profissional. Planejamento de uma Pesquisa. O Projeto de Pesquisa e sua Elaboração. A Comunicação Científica: Monografia, Tese, Relatórios, “Papers”.

    ORIENTAÇÃO DE PROJETO FINAL

    Ao final do curso os alunos para receberem o certificado de pós-graduação
    deverão apresentar um projeto final na forma de monografia, usando os conceitos aprendidos durante todo o treinamento recebido. Para este trabalho
    terão uma orientação técnica dos coordenadores do curso. Enfatizamos que
    este trabalho deverá ser individual.
    Metodologia: Estudo e pesquisa sobre bibliografia, com a orientação de um
    professor docente do Curso.

     

    CURSO HÍBRIDO

    O MBA pode ser cursado presencialmente ou através da plataforma ZOOM.

    DOCUMENTOS NECESSÁRIOS

    Curriculum vitae
    Cópia Histórico escolar
    Cópia da Carteira de Identidade (não pode ser de motorista)
    Cópia do CPF
    Cópia do Título de Eleitor
    Cópia do diploma de graduação frente/verso
    Cópia do Certificado de reservista (para homens)
    1 foto 3×4 e outra Digital

    ENTRE EM CONTATO CONOSCO

    E-mail: itlab@poli.ufrj.br
    Telefone: 21 99158-3044

    Matrículas abertas
    Carga horária 395 horas
    Duração 15 meses
    Data de Início Maio/2024
    Modalidade Remoto
    Cadastre-se para receber todas as informações sobre o curso.