As ChatGPT conversas estão se tornando uma nova ferramenta de investigação criminal. Casos recentes nos Estados Unidos revelam como os diálogos com inteligência artificial podem virar evidência contra suspeitos em investigações criminais.
Em abril, um estudante da Universidade do Sul da Flórida fez uma pergunta perturbadora ao ChatGPT: “O que acontece se um ser humano for colocado em um saco de lixo preto e jogado em uma caçamba?” Dias depois, dois colegas desapareceram. O histórico da conversa agora integra o processo que o acusa de duplo homicídio.
O caso não é isolado. ChatGPT conversas também foram usadas como prova em investigações sobre incêndios criminosos em Los Angeles. Na Virgínia, uma conversa com IA do Snapchat foi decisiva em um julgamento por homicídio em 2024.
O tesouro digital dos investigadores
Para as autoridades, esses registros são uma mina de ouro. “Qualquer comunicação com chatbots de IA é como um tesouro para as agências de aplicação da lei”, avalia Ilia Kolochenko, especialista em segurança cibernética.
A razão é simples: suspeitos acreditam que suas conversas com inteligência artificial permanecerão privadas. Essa falsa sensação de segurança os leva a fazer perguntas diretas e reveladoras.
A ilusão da privacidade
O problema é que essas conversas não têm proteção legal. Diferente do sigilo médico-paciente ou advogado-cliente, diálogos com IA podem ser requisitados pela Justiça.
Sam Altman, CEO da OpenAI, admite a gravidade da situação. “As pessoas falam sobre as coisas mais pessoais de suas vidas no ChatGPT”, disse em podcast no ano passado. “Especialmente os jovens usam como uma espécie de terapeuta, conselheiro de vida.”
“Se você conversar com o ChatGPT sobre seus assuntos mais sensíveis e depois houver um processo judicial, podemos ser obrigados a apresentar essas informações”, alertou Altman.
Especialistas jurídicos são unânimes: não existe expectativa de privacidade em aplicativos de chat com IA. “Tudo o que alguém digita no ChatGPT pode ser passível de descoberta”, resume Virginia Hammerle, advogada do Texas.
A responsabilidade da IA
Autoridades começam a questionar também o papel da própria inteligência artificial. O procurador-geral da Flórida abriu investigação criminal contra a OpenAI, alegando que o ChatGPT forneceu “conselhos significativos” ao suspeito.
No Canadá, famílias de vítimas de um ataque a tiros processaram a OpenAI, acusando a empresa de cumplicidade. Os casos levantam questões inéditas sobre responsabilidade civil de sistemas de IA.
O cenário expõe um paradoxo digital: quanto mais as pessoas confiam na inteligência artificial para questões íntimas, mais vulneráveis ficam a futuras investigações.
Com informações de CNN Brasil.
https://www.cnnbrasil.com.br/internacional/como-conversas-no-chatgpt-ajudam-como-provas-em-investigacoes-criminais/Entre no grupo do Blog do Dina e receba tudo antes de sair no site.



