Especialização Inteligência Artificial 
==> Lista de Disciplinas

Imagine-se estudando estas matérias!

E como elas irão enriquecer a sua trajetória profissional!

 Vetores, matrizes e tensores. Operações básicas, normas, determinante, inversa,Ctraço, dependência linear. Problema de autovalor e autovetor. Decomposição de valor singular. Números aleatórios. Distribuições de probabilidade. Probabilidade condicional. Regra da cadeia da probabilidade condicional. Teorema de Bayes. Variáveis independentes e não independentes. Covariância. Modelos discretos e contínuos Estatística Bayesiana. Modelo de Markov, modelo de Markov oculto. Realização de atividades práticas de programação durante as aulas.
 O que é exatamente a inteligência artificial (IA)? Por que agora? Perguntas mais frequentes sobre IA. Como a IA está mudando a indústria e os negócios. IA e o mercado de trabalho. Capacidades reais da IA. Aplicações atuais de IA: chatbots, veículos autônomos, robôs etc. IA nas grandes empresas de alta tecnologia. Tecnologias associadas à IA. Estudos de casos de utilização de IA via Canvas de Machine Learning.
 Tipos de variáveis de dados. Comandos de entrada e saída de dados. Comandos de condição. Variáveis e expressões booleanas. Comandos de repetição. Funções. Conjunto de dados, strings, listas, dicionários, vetores e matrizes. Programação orientada a objetos: classe, família, herança, instância. Pacotes Numpy, Scipy e Matplotlib. Realização de atividades práticas de programação durante as aulas.
 Definição de aprendizado de máquina. Aprendizado supervisionado e não supervisionado. Regressão e classificação: aproximação de funções, regressão linear, regressão polinomial, regressão logística. Máquinas de Vetores de Suporte; Redução de similaridade: análise de componentes principais (PCA) e suas variações. Regressão linear bayesiana, classificadores de Bayes, Bayes ingênuo; Utilização de práticas eficientes em aprendizado de máquina (teoria de viés, variância, processo de inovação em aprendizado de máquina). Realização de atividades práticas de programação durante as aulas.
 Retreinamento de transformers decodificadores: GPT Aplicações de LLMs de código aberto: LLaMA, PaLM2 e variantes. Aplicações de modelos de difusão de código aberto para gerar imagens especializadas. Uso de RAG ("Retrieve Augmented Generation") para aumentar a capacidade de LLMs. Desenvolvimento de novas aplicações usando modelos de IA pré-treinados, tais como: agentes autônomos, tarefas de "in-paint"e "out-paint", etc. Realização de atividades práticas de programação durante as aulas.
 Classificadores tipo arvore, "random forests". Árvores de decisão. Aprendizado competitivo e mapas auto organizáveis. Autoencoders. Máquina de Boltzmann. Agrupamento e similaridade: máquinas de vetores de suporte, separadores ótimos, métodos de Kernel, método k-means.
 Fundamentos de redes neurais convolucionais: tipos de camadas (pooling e convolucionais) e configurações. Redes convolucionais clássicas, redes residuais, redes do tipo inception. Transferência de aprendizado. Geração automática de dados de aprendizado e teste. Redes convolucionais do tipo deep learning. Utilização de redes convolucionais para identificação e classificação de objetos. Utilização de redes convolucionais para detecção e localização de objetos. Utilização de redes convolucionais para detecção e reconhecimento de faces. Utilização de redes convolucionais para segmentação de imagens. Utilização de redes convolucionais para recoinstrução 3D de ambiente a partir de imagens. Realização de atividades práticas de programação durante as aulas.
 Introdução ao aprendizado por reforço. Três formas de abordagem: baseado em valor, baseado em modelo e baseado em política.  Processos de decisão de Markov. Planejamento por programação dinâmica. Predição livre de modelo. Controle livre de modelo. Aproximação de função de valor. Métodos de gradiente de políticas. Integração de aprendizado e planejamento. Exploração e extração. Aprendizado por reforço com redes neurais deep learning. Estudo de caso: jogos clássicos. Realização de atividades práticas de programação durante as aulas.
 Conceitos básicos e introdução às redes neurais artificiais. Vida artificial, intelig^encia artificial e redes neurais artificiais. O que são redes neurais artificiais e suas origens. Alguns aspectos históricos. Treinamento supervisionado e não supervisionado.. Principais arquiteturas de redes. Redes "alimentadas-adiante". Perceptrons. Unidades lineares (ADALINE) e não lineares. O algoritmo de retro-propagação.  Ajuste de funções e classificação de padrões usando redes neurais artificiais. Introdução à plataforma TensorFlow/Keras. Criação, treinamento e avaliação de redes neurais sequenciais usando o Keras. Configuração de conjunto de dados: normalização de dados, dados de treinamento, dados de desenvolvimento e dados de teste. Inicialização dos parâmetros da rede. Métodos de otimização. Exemplos de aplicações e realização de atividades práticas de programação durante as aulas.
 Criação, treinamento e avaliação de redes neurais não sequenciais.  Criação de funções de custo customizadas. Criação de camadas customizadas. Criação de modelos customizados Técnicas de criação de pipeline de dados para treinamento e operação de redes neurais. Atividades práticas em sala com Python e as ferramentas TensorFlow, Keras e Pytorch para o desenvolvimento de modelos de redes neurais.
 Preparação de dados de séries temporais para análise e previsão usando redes neurais. Técnicas clássicas de análise e previsão de séries temporais. Uso de redes recorrentes simples para análise de séries temporais. Uso de redes recorrentes com camadas GRU e LSTM. Uso de redes convolucionais 1D para séries temporais. Atividades práticas com Python e TensorFlow/Keras
 Modelos de língua. Classificação de textos. Cálculos de relevância da informação. Cálculos de similaridade de documentos. Análise de sentimentos. Modelagem não-supervisionada de tópicos. Geração automática de texto. Sumarização de textos. Sistemas de perguntas e respostas. Chatbots. Transformers codificadores: BERT e suas variantes (DistilBERT, RoBERTa etc.). Transformers codificadores-decodificadores: Text-to-Text Transfer Transformer (T5). Mitigação de riscos inerentes aos LLMs.
 Transferência de estilo usando redes neurais. Geração de "arte" (imagens e músicas) usando transferência de estilo. Autocodificadores variacionais. Geração de "arte" (imagens e músicas) usando autocodificadores. Geração automática de texto usando redes neurais tipo transformers. Geração de texto com transformers decodificadores tipo GPT. Modelos de difusão para geração de imagens. Arquiteturas de modelos híbridos de texto e imagens. Destilação de quantização de redes neurais. Realização de atividades práticas de programação durante as aulas.

Saiba mais sobre nosso curso:


PECE Programa de Educação Continuada | Escola Politécnica da USP | Fone: (11) 2998-0000

Desenvolvido com Carinho Por Animale Marketing Digital