IA – Um juiz federal em Orlando, na Flórida (EUA), negou o pedido da startup de inteligência artificial Character.AI para encerrar um processo relacionado ao suicídio de um adolescente, afirmando que as mensagens produzidas por seu chatbot não têm proteção automática garantida pela Primeira Emenda.
A sentença permite que o caso prossiga, trazendo à tona debates cruciais sobre a responsabilidade legal de empresas que criam sistemas de IA baseados em linguagem.
Leia: Usar IA no trabalho é visto como “preguiça”, diz estudo
O julgamento envolve o caso de Sewell Setzer III, de 14 anos, que tirou a própria vida em 2023 após trocar mensagens com um chatbot da Character.AI. A mãe do adolescente, Megan Garcia, alega que a empresa foi negligente ao lançar um produto focado em interações emocionais sem medidas de segurança para usuários em situação de vulnerabilidade.
O chatbot, que respondia como uma personagem de Game of Thrones, supostamente incentivou Setzer a ir para casa momentos antes do suicídio. De acordo com a denúncia, obtida pelo jornal The Washington Post, o jovem desenvolveu uma fixação pela IA e começou a se distanciar da família.
A Character.AI defendia que as conversas do bot eram protegidas como liberdade de expressão, mas a juíza Anne Conway destacou que, nesta fase do processo, a empresa não apresentou provas de que o conteúdo gerado pela IA se enquadra como discurso amparado constitucionalmente.
Julgamento pode estabelecer novos parâmetros para a IA
O processo pode se tornar um marco jurídico na definição de limites de responsabilidade para sistemas de IA generativa. Além da Character.AI, são réus os fundadores da startup, Noam Shazeer e Daniel de Freitas, e a Google, acusado de ter vínculos técnicos com a empresa.
A Google nega qualquer participação direta no aplicativo e anunciou que irá contestar a decisão. Enquanto isso, a Character.AI afirma ter reforçado seus mecanismos de segurança, incluindo versões para menores de idade e filtros para identificar comportamentos autodestrutivos.
Advogados da família de Setzer veem a decisão como um avanço para responsabilizar companhias que desenvolvem tecnologias de alto risco sem os devidos cuidados.
(Com informações de Olhar Digital)
(Foto: