OpenAI ignora alertas sobre atirador em potencial e é criticada

Destaques
- •Funcionários da OpenAI alertaram sobre posts preocupantes de usuário
- •A empresa decidiu não contatar as autoridades sobre os riscos
- •O caso levanta questões sobre a responsabilidade de IA em prevenir violência
Olha só essa treta: a OpenAI, a gigante por trás do ChatGPT, está sendo criticada por não ter acionado as autoridades após funcionários levantarem preocupações sobre um usuário.
O caso envolve Jesse Van Rootselaar, que meses antes de um tiroteio em Tumbler Ridge, British Columbia, teve conversas com o ChatGPT que incluíam descrições de violência armada. Isso acionou o sistema de revisão automática do chatbot.
Aí que o bicho pegou...
Vários funcionários da OpenAI ficaram alertas com os posts, temendo que fossem um prenúncio de violência real e pediram que a liderança contatasse as autoridades. Mas, no fim das contas, a empresa optou por não fazer isso. Agora, a porta-voz Kayla Wood confirmou que eles consideraram acionar a polícia, mas não o fizeram. A pergunta que fica é: até onde vai a responsabilidade de uma empresa de IA nesses casos? 😬



