SEGURANÇA DA IA EM PRODUÇÃO

SEGURANÇA DA IA EM PRODUÇÃO
A formação Segurança das IA em Produção destina‑se a engenheiros de IA/ML, Data Scientists, arquitetos DevSecOps e responsáveis de segurança que operam modelos em ambientes cloud ou on‑premises. Ao longo de 3 dias (21 horas), os participantes aprendem a cartografar riscos com base no MITRE ATLAS, implementar controlos de acesso e rastreabilidade no pipeline (dados, treino, inferência), detetar e mitigar ataques adversariais (poisoning, evasão, extração/inversão) e integrar monitorização e alertas com indicadores de comprometimento (IoCs‑IA). A formação inclui ainda a elaboração de um plano de resposta a incidentes de IA, com rollback, re‑treino seguro e comunicação a stakeholders, suportado por exercícios práticos (ex.: Grafana/Prometheus e simulação de incidente).
  • Cartografar o ciclo de vida de um modelo de IA segundo o MITRE ATLAS e identificar as zonas de risco
  • Implementar controlos de acesso e mecanismos de rastreabilidade para cada fase do pipeline (dados, treino, inferência)
  • Detetar e mitigar ataques adversariais (envenenamento, inversão de modelo, evasão) em produção
  • Integrar mecanismos de monitorização contínua e de alerta baseados em indicadores de comprometimento de IA (IoCs‑IA)
  • Elaborar um plano de resposta a incidentes de IA incluindo rollback, re‑treino e comunicação às partes interessadas
3 dias

Cartografia e controlos de acesso

• Introdução ao MITRE ATLAS: táticas e fases (reconhecimento, acesso ao pipeline, ataques ao modelo)
• Cartografia de um pipeline de IA interno
• Fluxos de dados
• Artefactos de modelos
• Pontos de inferência

Exemplos de exercícios práticos

• Modelizar o seu pipeline de IA e inventariar os ativos críticos

 

Cartografia e controlos de acesso – Continuação

• Controlos de acesso e rastreabilidade: gestão de identidades (IAM), separação dos ambientes DEV / TRAIN / PROD
• Cifragem de dados e modelos (em repouso e em trânsito)

Exemplos de exercícios práticos

• Implementar um mecanismo de auditoria nas chamadas de API de inferência

 

Ataques adversariais e mitigação

• Ataques por envenenamento de dados (Data Poisoning) e falsificação de dados (Data Falsification)
• Deteção de anomalias nos dados de treino (estatísticas, métodos baseados em ML)

Exemplos de exercícios práticos

• Injetar e detetar um caso simples de envenenamento de dataset

• Ataques de evasão na inferência (Evasion Attacks) e extração de modelo (Model Extraction)
• Contramedidas
• Defesas por distilação
• Randomização
• Avaliação de robustez (FGSM, PGD)

Exemplos de exercícios práticos

• Gerar exemplos adversariais e testar a robustez do modelo em produção

 

Monitorização contínua e resposta

• Monitorização de indicadores de comprometimento de IA (IoCs‑IA): deriva de desempenho, padrões de pedidos anormais
• Implementação de dashboards e alertas (logs de inferência, métricas de precisão)

Exemplos de exercícios práticos

• Configurar um pipeline de monitorização em Grafana / Prometheus para um serviço de IA

• Plano de resposta a incidentes de IA
• Rollback de modelo
• Re‑treino seguro
• Comunicação
• Conclusão e recomendações para uma governação de IA sustentável

Exemplos de exercícios práticos

• Exercício guiado: simulação de um incidente de comprometimento de IA e execução do plano de resposta

Nota: O conteúdo deste programa pode ser objeto de adaptação em função dos níveis, pré‑requisitos e necessidades dos participantes.

Facilitador que combina know-how com experiência empresarial e competências pedagógicas, para dar resposta a necessidades operacionais e potenciar a aprendizagem.

Objetivos da formação

  • Cartografar o ciclo de vida de um modelo de IA segundo o MITRE ATLAS e identificar as zonas de risco
  • Implementar controlos de acesso e mecanismos de rastreabilidade para cada fase do pipeline (dados, treino, inferência)
  • Detetar e mitigar ataques adversariais (envenenamento, inversão de modelo, evasão) em produção
  • Integrar mecanismos de monitorização contínua e de alerta baseados em indicadores de comprometimento de IA (IoCs‑IA)
  • Elaborar um plano de resposta a incidentes de IA incluindo rollback, re‑treino e comunicação às partes interessadas

Duração da formação

3 dias

Programa da formação

Cartografia e controlos de acesso

• Introdução ao MITRE ATLAS: táticas e fases (reconhecimento, acesso ao pipeline, ataques ao modelo)
• Cartografia de um pipeline de IA interno
• Fluxos de dados
• Artefactos de modelos
• Pontos de inferência

Exemplos de exercícios práticos

• Modelizar o seu pipeline de IA e inventariar os ativos críticos

 

Cartografia e controlos de acesso – Continuação

• Controlos de acesso e rastreabilidade: gestão de identidades (IAM), separação dos ambientes DEV / TRAIN / PROD
• Cifragem de dados e modelos (em repouso e em trânsito)

Exemplos de exercícios práticos

• Implementar um mecanismo de auditoria nas chamadas de API de inferência

 

Ataques adversariais e mitigação

• Ataques por envenenamento de dados (Data Poisoning) e falsificação de dados (Data Falsification)
• Deteção de anomalias nos dados de treino (estatísticas, métodos baseados em ML)

Exemplos de exercícios práticos

• Injetar e detetar um caso simples de envenenamento de dataset

• Ataques de evasão na inferência (Evasion Attacks) e extração de modelo (Model Extraction)
• Contramedidas
• Defesas por distilação
• Randomização
• Avaliação de robustez (FGSM, PGD)

Exemplos de exercícios práticos

• Gerar exemplos adversariais e testar a robustez do modelo em produção

 

Monitorização contínua e resposta

• Monitorização de indicadores de comprometimento de IA (IoCs‑IA): deriva de desempenho, padrões de pedidos anormais
• Implementação de dashboards e alertas (logs de inferência, métricas de precisão)

Exemplos de exercícios práticos

• Configurar um pipeline de monitorização em Grafana / Prometheus para um serviço de IA

• Plano de resposta a incidentes de IA
• Rollback de modelo
• Re‑treino seguro
• Comunicação
• Conclusão e recomendações para uma governação de IA sustentável

Exemplos de exercícios práticos

• Exercício guiado: simulação de um incidente de comprometimento de IA e execução do plano de resposta

Nota: O conteúdo deste programa pode ser objeto de adaptação em função dos níveis, pré‑requisitos e necessidades dos participantes.

Formador

Facilitador que combina know-how com experiência empresarial e competências pedagógicas, para dar resposta a necessidades operacionais e potenciar a aprendizagem.

Indisponível

Quer uma formação à medida para a sua empresa?

Peça-nos uma proposta!
Clique na imagem para expandir

Os nossos espaços de formação oferecem todas as condições para continuar o seu desenvolvimento pessoal e profissional em absoluta segurança

Não se esqueça de subscrever o blog RhBizz e de nos seguir no LindekInFacebookInstagram Youtube.

Formações ajustadas ao seu negócio

FORMAÇÕES À MEDIDA

Provocamos e aceleramos processos de mudança com a implementação e desenvolvimento de soluções pragmáticas orientadas para os resultados

SABER MAIS