OpenAI pede desculpas por não alertar polícia sobre ameaça de tiroteio

Sam Altman, CEO da OpenAI, pediu desculpas por não alertar a polícia sobre ameaças de tiroteio. A falha ocorreu antes de um ataque fatal no Canadá.

Sam Altman, CEO da OpenAI, pediu desculpas à cidade canadense de Tumbler Ridge. A OpenAI pede desculpas por não ter avisado a polícia sobre conteúdos preocupantes de uma usuária no ChatGPT. O pedido veio após um ataque que matou oito pessoas em fevereiro. David Eby, primeiro-ministro da Colúmbia Britânica, província canadense, disse que o pedido de desculpas era “necessário, mas muito pouco”.

O Ataque e a Resposta da OpenAI

Em 10 de fevereiro, uma jovem de 18 anos matou a mãe e o meio-irmão em casa. Depois, ela foi a uma escola e atirou, matando cinco crianças e um professor. Em seguida, tirou a própria vida. O ataque deixou um total de dez mortos e 25 feridos. Após o ocorrido, a OpenAI informou que havia identificado a conta da suspeita por meio de seus sistemas de segurança. A empresa baniu a usuária do chatbot em junho, oito meses antes da tragédia.

PUBLICIDADE

Contudo, a OpenAI não avisou a polícia canadense na época. A empresa disse que a atividade da usuária não era grave o suficiente para justificar o contato com as autoridades. O primeiro-ministro David Eby criticou essa postura, destacando a seriedade do evento.

O Pedido de Desculpas da OpenAI

Sam Altman expressou seu arrependimento. Ele disse: “Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta banida em junho”. Altman enviou uma carta a Eby, divulgada nesta sexta-feira (24/04). Ele afirmou que, embora palavras não resolvam, um pedido de desculpas é importante para reconhecer a dor e a perda da comunidade. Altman também explicou que demorou a pedir desculpas para respeitar o luto dos moradores de Tumbler Ridge.

A situação gerou um debate sobre a responsabilidade de empresas de tecnologia. Muitos questionam até que ponto elas devem monitorar e reportar atividades suspeitas de seus usuários. Além disso, a demora no pedido de desculpas levantou dúvidas sobre a proatividade da empresa em lidar com crises.

Como o ChatGPT Denuncia Ameaças?

A OpenAI usa sistemas automáticos de moderação. Estes sistemas analisam o conteúdo em tempo real. Contas que violam as regras podem ser limitadas ou banidas. As regras proíbem exploração sexual, apoio à automutilação e ao suicídio, e promoção de violência. Em casos sérios, os sistemas devem sinalizar comportamentos de alto risco para uma equipe humana revisar. Se uma ameaça real for encontrada, a empresa pode compartilhar dados da conta com a polícia. Este é o protocolo que a OpenAI e segurança tentam seguir.

Após o ataque, autoridades canadenses chamaram a equipe de segurança da OpenAI. Elas ameaçaram tomar medidas regulatórias se a empresa não fizesse mudanças. A OpenAI afirmou que vai melhorar suas medidas de segurança. A empresa também criou um canal direto de contato com a polícia. Dessa forma, esperam evitar falhas futuras na comunicação.

Ações Futuras para a Segurança da OpenAI

Altman garantiu que a OpenAI está dedicada a encontrar maneiras de evitar tragédias parecidas. “Nosso foco será trabalhar com todos os níveis de governo para garantir que algo assim nunca mais aconteça”, disse ele na carta. A empresa busca fortalecer seus protocolos e ferramentas para identificar e reportar ameaças de forma mais eficaz. Este compromisso mostra a importância de uma revisão constante dos sistemas de moderação.

A comunidade e as autoridades esperam que a OpenAI pede desculpas não seja apenas um gesto, mas o início de mudanças concretas. A segurança dos usuários e a prevenção de crimes são pontos cruciais. A colaboração entre empresas de tecnologia e órgãos de segurança pública é essencial para lidar com ameaças no ambiente digital. A empresa precisa mostrar que aprendeu com o erro e que está agindo para proteger as pessoas.