SEGURANÇA DA IA EM PRODUÇÃO
- inteligência artificial, Inteligência Artificial, New, PRO
- 0 (Registered)
- Cartografar o ciclo de vida de um modelo de IA segundo o MITRE ATLAS e identificar as zonas de risco
- Implementar controlos de acesso e mecanismos de rastreabilidade para cada fase do pipeline (dados, treino, inferência)
- Detetar e mitigar ataques adversariais (envenenamento, inversão de modelo, evasão) em produção
- Integrar mecanismos de monitorização contínua e de alerta baseados em indicadores de comprometimento de IA (IoCs‑IA)
- Elaborar um plano de resposta a incidentes de IA incluindo rollback, re‑treino e comunicação às partes interessadas
Cartografia e controlos de acesso
• Introdução ao MITRE ATLAS: táticas e fases (reconhecimento, acesso ao pipeline, ataques ao modelo)
• Cartografia de um pipeline de IA interno
• Fluxos de dados
• Artefactos de modelos
• Pontos de inferência
Exemplos de exercícios práticos
• Modelizar o seu pipeline de IA e inventariar os ativos críticos
Cartografia e controlos de acesso – Continuação
• Controlos de acesso e rastreabilidade: gestão de identidades (IAM), separação dos ambientes DEV / TRAIN / PROD
• Cifragem de dados e modelos (em repouso e em trânsito)
Exemplos de exercícios práticos
• Implementar um mecanismo de auditoria nas chamadas de API de inferência
Ataques adversariais e mitigação
• Ataques por envenenamento de dados (Data Poisoning) e falsificação de dados (Data Falsification)
• Deteção de anomalias nos dados de treino (estatísticas, métodos baseados em ML)
Exemplos de exercícios práticos
• Injetar e detetar um caso simples de envenenamento de dataset
• Ataques de evasão na inferência (Evasion Attacks) e extração de modelo (Model Extraction)
• Contramedidas
• Defesas por distilação
• Randomização
• Avaliação de robustez (FGSM, PGD)
Exemplos de exercícios práticos
• Gerar exemplos adversariais e testar a robustez do modelo em produção
Monitorização contínua e resposta
• Monitorização de indicadores de comprometimento de IA (IoCs‑IA): deriva de desempenho, padrões de pedidos anormais
• Implementação de dashboards e alertas (logs de inferência, métricas de precisão)
Exemplos de exercícios práticos
• Configurar um pipeline de monitorização em Grafana / Prometheus para um serviço de IA
• Plano de resposta a incidentes de IA
• Rollback de modelo
• Re‑treino seguro
• Comunicação
• Conclusão e recomendações para uma governação de IA sustentável
Exemplos de exercícios práticos
• Exercício guiado: simulação de um incidente de comprometimento de IA e execução do plano de resposta
Nota: O conteúdo deste programa pode ser objeto de adaptação em função dos níveis, pré‑requisitos e necessidades dos participantes.
Facilitador que combina know-how com experiência empresarial e competências pedagógicas, para dar resposta a necessidades operacionais e potenciar a aprendizagem.
Objetivos da formação
- Cartografar o ciclo de vida de um modelo de IA segundo o MITRE ATLAS e identificar as zonas de risco
- Implementar controlos de acesso e mecanismos de rastreabilidade para cada fase do pipeline (dados, treino, inferência)
- Detetar e mitigar ataques adversariais (envenenamento, inversão de modelo, evasão) em produção
- Integrar mecanismos de monitorização contínua e de alerta baseados em indicadores de comprometimento de IA (IoCs‑IA)
- Elaborar um plano de resposta a incidentes de IA incluindo rollback, re‑treino e comunicação às partes interessadas
Duração da formação
Programa da formação
Cartografia e controlos de acesso
• Introdução ao MITRE ATLAS: táticas e fases (reconhecimento, acesso ao pipeline, ataques ao modelo)
• Cartografia de um pipeline de IA interno
• Fluxos de dados
• Artefactos de modelos
• Pontos de inferência
Exemplos de exercícios práticos
• Modelizar o seu pipeline de IA e inventariar os ativos críticos
Cartografia e controlos de acesso – Continuação
• Controlos de acesso e rastreabilidade: gestão de identidades (IAM), separação dos ambientes DEV / TRAIN / PROD
• Cifragem de dados e modelos (em repouso e em trânsito)
Exemplos de exercícios práticos
• Implementar um mecanismo de auditoria nas chamadas de API de inferência
Ataques adversariais e mitigação
• Ataques por envenenamento de dados (Data Poisoning) e falsificação de dados (Data Falsification)
• Deteção de anomalias nos dados de treino (estatísticas, métodos baseados em ML)
Exemplos de exercícios práticos
• Injetar e detetar um caso simples de envenenamento de dataset
• Ataques de evasão na inferência (Evasion Attacks) e extração de modelo (Model Extraction)
• Contramedidas
• Defesas por distilação
• Randomização
• Avaliação de robustez (FGSM, PGD)
Exemplos de exercícios práticos
• Gerar exemplos adversariais e testar a robustez do modelo em produção
Monitorização contínua e resposta
• Monitorização de indicadores de comprometimento de IA (IoCs‑IA): deriva de desempenho, padrões de pedidos anormais
• Implementação de dashboards e alertas (logs de inferência, métricas de precisão)
Exemplos de exercícios práticos
• Configurar um pipeline de monitorização em Grafana / Prometheus para um serviço de IA
• Plano de resposta a incidentes de IA
• Rollback de modelo
• Re‑treino seguro
• Comunicação
• Conclusão e recomendações para uma governação de IA sustentável
Exemplos de exercícios práticos
• Exercício guiado: simulação de um incidente de comprometimento de IA e execução do plano de resposta
Nota: O conteúdo deste programa pode ser objeto de adaptação em função dos níveis, pré‑requisitos e necessidades dos participantes.
Formador
Facilitador que combina know-how com experiência empresarial e competências pedagógicas, para dar resposta a necessidades operacionais e potenciar a aprendizagem.
Clique na imagem para expandir
Os nossos espaços de formação oferecem todas as condições para continuar o seu desenvolvimento pessoal e profissional em absoluta segurança
Não se esqueça de subscrever o blog RhBizz e de nos seguir no LindekIn, Facebook, Instagram e Youtube.
















