As práticas de segurança de IA estão sob escrutínio após o caso de tiroteio escolar da openai envolvendo um suspeito canadiano cuja atividade online foi sinalizada meses antes do ataque.
A criadora do ChatGPT, a OpenAI, revelou que identificou a conta de Jesse Van Rootselaar em junho de 2025 através dos seus sistemas de deteção de abuso por "promoção de atividades violentas". No entanto, a empresa tecnológica sediada em São Francisco concluiu na altura que a atividade não cumpria o seu limiar interno para encaminhamento às autoridades.
A empresa afirmou que ponderou especificamente se deveria alertar a Polícia Montada Real do Canadá (RCMP) sobre a conta. Além disso, decidiu não avançar, julgando que os sinais não indicavam um plano iminente e credível para causar danos físicos graves.
A OpenAI subsequentemente baniu a conta em junho de 2025 por violar a sua política de utilização. Essa decisão ocorreu meses antes da tragédia que viria a desenrolar-se numa parte remota da Colúmbia Britânica.
O suspeito de 18 anos realizou posteriormente um ataque numa escola na pequena cidade de Tumbler Ridge, matando oito pessoas antes de morrer de um ferimento de bala autoinfligido. O incidente, relatado na semana passada, é um dos piores tiroteios escolares da história do Canadá e intensificou o debate sobre como as empresas tecnológicas lidam com comportamentos de utilizadores de alto risco.
De acordo com a RCMP, Van Rootselaar primeiro matou a sua mãe e meio-irmão na casa da família antes de atacar a escola próxima. Além disso, a polícia afirmou que o atirador tinha um histórico anterior de contactos relacionados com saúde mental com as autoridades, embora a natureza específica dessas interações não tenha sido detalhada.
A polícia relatou que as vítimas incluíam um assistente de ensino de 39 anos e cinco alunos com idades entre 12 e 13 anos. A cidade, que abriga cerca de 2.700 pessoas nas Montanhas Rochosas Canadianas, fica a mais de 1.000 km (600 milhas) a nordeste de Vancouver, perto da fronteira com Alberta.
Ao explicar a sua decisão de não contactar as autoridades mais cedo, a OpenAI afirmou que o seu padrão para contactar as autoridades centra-se em saber se um caso envolve um risco iminente e credível de danos físicos graves a terceiros. Na altura, a empresa disse que não identificou planeamento concreto ou iminente que teria desencadeado tal encaminhamento.
A empresa observou que este limiar de encaminhamento visa equilibrar a privacidade do utilizador com as obrigações de segurança. No entanto, a revelação gerou novas questões sobre se os critérios existentes para escalação são adequados quando surgem sinais de alerta precoces nas interações dos utilizadores com ferramentas de IA como o ChatGPT.
Após a notícia do tiroteio escolar ter surgido, funcionários da OpenAI contactaram a RCMP com detalhes sobre Van Rootselaar e a atividade histórica associada à conta. O Wall Street Journal foi o primeiro a reportar sobre as deliberações internas da empresa e subsequente contacto.
Numa declaração pública, um porta-voz da OpenAI afirmou: "Os nossos pensamentos estão com todos os afetados pela tragédia de Tumbler Ridge. Contactámos proativamente a Polícia Montada Real do Canadá com informações sobre o indivíduo e o seu uso do ChatGPT, e continuaremos a apoiar a sua investigação." Além disso, a empresa enfatizou a sua cooperação contínua com as autoridades canadianas.
Dito isto, o motivo do tiroteio permanece pouco claro, e os investigadores ainda não divulgaram que ligação direta, se alguma, existe entre as interações do suspeito com o ChatGPT e o ataque eventual. O caso, no entanto, aguçou o foco global sobre como as plataformas de IA detetam, avaliam e respondem a ameaças potenciais.
As autoridades descreveram o ataque de Tumbler Ridge como o ataque mais mortal do Canadá desde 2020, quando um atirador na Nova Escócia matou 13 pessoas e provocou incêndios que causaram a morte de outras nove. No entanto, o evento recente tem uma dimensão adicional porque se cruza com as responsabilidades em evolução dos fornecedores de IA.
À medida que os decisores políticos e as autoridades reveem as circunstâncias, o episódio de tiroteio escolar da openai provavelmente alimentará o debate sobre quando e como as empresas de IA devem escalar comportamentos preocupantes dos utilizadores às autoridades, e se os padrões de encaminhamento existentes abordam suficientemente os riscos digitais emergentes.
Em resumo, a tragédia na Colúmbia Britânica sublinha o equilíbrio complexo entre privacidade, avaliação de risco e segurança pública à medida que as plataformas de IA se tornam profundamente incorporadas na vida quotidiana, forçando tanto os reguladores como as empresas tecnológicas a reavaliar os seus protocolos para lidar com ameaças potenciais.


Amy Webb, CEO do Future Today Strategy Group, estará na SP House Getty Images Os brasileiros que vão ao SXSW, maior festival de tecnologia do mundo, que ac
