Especialização Engenharia de Dados e Big Data - EAD / Síncrono => Disciplinas

Imagine-se estudando estas matérias!

E como elas irão enriquecer a sua trajetória profissional!

KDD (Knowledge Discovery in Databases). Teoria da Aprendizagem. Reconhecimento de padrões. Sistemas de recomendação. Aprendizado supervisionado: Modelos Lineares para Regressão. Modelos Lineares para Classificação. Regressão Logística. Árvores de Decisão. Máquinas de Vetor Suporte (MVS). Introdução a Redes Neurais Artificiais (RNA). Redes Neurais Convolucionais (RNC). Redes Neurais Recorrentes (RNR). Aprendizado não-supervisionado: Clustering, Análise de Componentes Principais (ACP). Ferramentas: Python , KERAS-TensorFlow e WEKA.
Conceitos de estatística.modelos preditivos e tipos de análise.abordagens para análise preditiva.modelos de aprendizado de máquina.introdução a IA.plataforma R. Python, Google Colab.
Histórico de sistemas distribuídos.Características e desafios de sistemas distribuídos.Arquiteturas P2P.características, classificação e desafios.Aplicações e tecnologias P2P.Blockchain, Tor & Deep Web.Bittorrent. Freenet.InterPlanetary File System (IPFS).Distributed Hash Table (DHT).entre outros.
Parte 1: Conceitos de Arquitetura. Ciclo de Vida de desenvolvimento de Software. Definição de Arquitetura. Visões arquiteturais e Arquitetura Candidata. Processo Centrado em Arquitetura. Arquitetura NIST Big Data e Cloud (SAAS, PAAS, IAAS). Arquitetura e Requisitos não funcionais. Padrões arquiteturais. Arquitetura e Transformação Digital, Big Data.Cenário de Negócio.Parte 2: Arquitetura DW.orientação a assunto, integração e versionamento.conceitos de Slowly Change Dimension.uso de Surrogate Key.Carga Incremental e Snapshot.modelagem multidimensional, e engenharia de dados com desenvolvimento de aplicações, com report e dashboards.
Hadoop, Seu ecossistema e armazenamento além da contextualização de Data Sciente, Ferramentas do ecossistema Hadoop com distribuição Caludera. Spark.Watson.DB2 e Cloudant.
O que é uma monografia. Escrita científica. Método científico e elementos da pesquisa. Ética acadêmica. Revisão bibliográfica e citação. Ferramentas de organização bibliográfica. Bases de Pesquisa Científica.
Fundamentos da gestão de dados no contexto digital. Frameworks de metodologias contemporâneas. Tecnologias emergentes. Estratégias de monetização e valorização de dados. Estudos de caso e prática aplicada.
Governança de dados no cenário atual. Qualidade de dados como fator crítico de sucesso. Frameworks e padrões globais. Governança distribuída e Data Mesh. Desafios contemporâneos. Diagnóstico e tratamento prático de problemas de qualidade dados.
Modelo Entidade-Relacionamento, Modelo Relacional, Modelo Multidimensional, Aspectos de SQL, uso de um SGBDR.
Privacidade.Ética e Big Data.Direito a privacidade na era Digital.questões legais.órgãos reguladores e atores.Monitoramento na Web e tecnologias para proteção de privacidade nas diversas camadas da rede.Questões éticas de privacidade e práticas atuais.IA Responsável.
Hands-on: captura de dados.Modelagem e implementação de repositório de dados.Tratamento dos dados.Aplicação de técnicas de algoritmos preditivos e de ML para montagem de modelos analíticos.Criação de dashboards.
Fundamento de banco de dados NoSQL e seus principais modelos de dados:chave-valor, documentos, família de colunas, orientado a grafos. Manipulação de dados com Apache Spark. Integração e consultas em diferentes tecnologias NoSQL.
Princípios e técnicas de segurança. Chaves simétricas e assimétricas. Acesso e autenticação com chave pública. Servidores de chaves.Kerberos versão 5 e sua implementação em cluster. Firewalls. Uso de IpTables. Configuração do IpTables para ambiente Hadoop. Sistema LDAP para autenticação e autorização em cluster. portas utilizadas pelo Hadoop e configuração de firewall.
Introdução aos conceitos básicos de engenharia de dados e Big Data. Bancos de dados relacionais e não relacionais. Arquitetura e ciclo de vida dos dados: geração, coleta, transformação, armazenamento e consumo. Formatos e padrões de dados. Conceitos de pipeline de dados, ETL e ELT, processamento em lote e em tempo real, ingestão e integração de dados. Apresentação e configuração de ferramentas processamento, armazenamento, integração, ingestão, visualização e orquestração. Introdução à computação em nuvem conceitos, modelos de serviço (IaaS, PaaS, SaaS), modelos de implantação, serviços e arquiteturas.
Introdução aos Negócios na Engenharia de Dados e Big Data, Discutir sobre as Oportunidades de Implementação de Projetos de Engenharia de Dados e Big Data, Drivers de Mercado para a implementação de projetos de Engenharia de Dados. A jornada da Inteligência sobre os Dados. Calculando o ROI (Retorno sobre o Investimento) e PayBack sobre projetos de Engenharia de Dados. Apresentação de Projetos de Conclusão da Disciplina. Apresentar as necessidades de negócios dos projetos, fontes de dados: aquisição e coleta, dados estruturados e não-estruturados, internet das coisas, CASE, ciência dos dados, papel do cientista de dados.
Fundamentos de UX e IHC: Interfaces, interação e experiência do usuário (UX), usabilidade, design centrado no usuário e jornada do usuário. Princípios de Infovis: propósito do design, audiência e função da visualização, Gestalt aplicada à visualização, retórica de dados, tipos de dados, variáveis de dados e variáveis visuais, escolha das visualizações adequadas, boas práticas de Infovis, dashboards. Prototipação e co-design: métodos de pesquisa com usuários e testes de usabilidade, hierarquia visual e princípios do design da informação, padrões de design de Infovis, definição de requisitos e sketching. Ferramentas utilizadas: Miro (para sketching digital);Google Colaboratory, Python (Pandas, Seaborn, Plotly), IA generativa via Gemini, ChatGPT/Copilot; Power BI. Ferramentas de coletas de feedback: Google Forms, Google Sheets.

Saiba mais sobre nosso curso:


PECE Programa de Educação Continuada | Escola Politécnica da USP | Fone: (11) 2998-0000

Desenvolvido com Carinho Por Animale Marketing Digital