摘要:Sistemas de Processamento de Fluxos de Dados processam fluxos contínuos de dados dentro dos requerimentos da Qualidade de Serviço. Fluxos de dados frequentemente contém informações críticas que necessitam de um processamento em tempo real. Para garantir a disponibilidade do sistema, uma estratégia de tolerância à falhas precisa ser utilizada. Entretanto, existem diversas estratégias disponíveis e a verificação de qual mecanismo opera melhor em cada arquitetura é um processo desafiador, especialmente em sistemas distribuídos de larga escala. Neste trabalho, propomos um modelo de simulação de eventos discretos para investigar os impactos da estratégia de Checkpoint Coordenado nos Sistemas de Processamento de Fluxos de Dados. Os resultados demonstram que a estratégia afeta criticamente o processamento de fluxos em situações de ocorrência de falhas devido ao aumento na latência de até 120% e na perda de informação de quase 95% dos dados recebidos na janela de processamento, no pior cenário.