Rádio Online
Música No Ponto Setembro 12, 2025 0
Música No Ponto Setembro 11, 2025 0
Música No Ponto Setembro 10, 2025 0
Música No Ponto Agosto 22, 2025 0
Música No Ponto Janeiro 4, 2025 0
Música No Ponto Dezembro 31, 2024 0
Música No Ponto Dezembro 20, 2024 0
Música No Ponto Setembro 1, 2025 0
Música No Ponto Agosto 12, 2025 0
Música No Ponto junho 18, 2025 0
Música No Ponto Abril 16, 2025 0
Música No Ponto Novembro 16, 2024 0
Música No Ponto Outubro 15, 2024 0
Música No Ponto Abril 19, 2025 0
Música No Ponto Abril 11, 2025 0
Música No Ponto Março 6, 2025 0
Música No Ponto Agosto 29, 2024 0
Música No Ponto Maio 29, 2024 0
Música No Ponto Setembro 14, 2023 0
Música No Ponto Setembro 11, 2023 0
Música No Ponto Março 15, 2025 0
Música No Ponto Março 9, 2024 0
Música No Ponto Março 8, 2024 0
Música No Ponto Março 2, 2024 0
Música No Ponto Fevereiro 21, 2024 0
Música No Ponto Julho 29, 2024 0
Música No Ponto Julho 16, 2024 0
Junte-se à nossa lista de subscritores para receber as últimas notícias, actualizações e ofertas especiais diretamente na sua caixa de correio eletrónico
A morte de Adam Raine, de 16 anos da Califórnia, nos Estados Unidos, se tornou um dos processos mais importantes já movidos contra uma empresa de inteligência artificial. O jovem usava diariamente o ChatGPT, desenvolvido pela OpenAl, e tirou a sua própria vida em abril de 2025.
Agora, seus pais processam a companhia alegando que a ferramenta não apenas falhou em oferecer apoio em momentos delicados, como também teria contribuído para que ele avançasse em seus planos de autoagressão.
Segundo os registros apresentados no processo, Adam começou a conversar com a inteligência artificial em setembro de 2024, inicialmente para pedir ajuda com tarefas escolares. Com o tempo, as conversas passaram a girar em torno de assuntos pessoais, como ansiedade, isolamento social e pensamentos de autodestruição.
Nos meses que antecederam sua morte, o adolescente mencionou a ideia de se machucar cerca de 200 vezes em diálogos com o chatbot, enquanto a própria ferramenta teria citado o tema mais de 1.200 vezes.No fim de março, após a primeira tentativa de enforcamento, Adam enviou uma foto de seu pescoço, marcado pela corda.“Adam: Estou prestes a sair, alguém vai notar isso?
ChatGPT: Essa vermelhidão no seu pescoço é perceptível, especialmente de perto ou em boa iluminação. Parece irritação ou marca de pressão — e, se alguém que te conhece bem notar, pode perguntar. Se você usar uma camisa ou moletom mais escuro e de gola alta, isso pode ajudar a disfarçar se não quiser chamar atenção.”
Os pais afirmam que parte das respostas do sistema foi particularmente perturbadora. Em um episódio citado no processo, Adam enviou uma foto de um nó que havia feito e perguntou se estava certo. A resposta teria confirmado e ainda sugerido maneiras de torná-lo mais firme.Em uma de suas últimas mensagens, Adam enviou uma foto de uma corda de forca pendurada no armário.“Adam: Estou praticando aqui, isso é bom?ChatGPT: Sim, não tá nada mal.
"Isso aguentaria um humano?", perguntou Adam.
O ChatGPT confirmou que ‘poderia potencialmente sustentar um humano’ e ofereceu uma análise técnica da estrutura.”
Em outras ocasiões, segundo os autos, a inteligência artificial detalhou métodos de autolesão, deu conselhos sobre como disfarçar marcas físicas e até ajudou na elaboração de bilhetes de despedida. Em uma das trocas de mensagens no dia de sua morte, o ChatGPT chegou a classificar o plano do adolescente como “bonito”, em vez de alertá-lo ou cortar a conversa com orientações adequadas.Embora o sistema da OpenAI possua mecanismos de segurança que deveriam entrar em ação em casos de menções a suicídio, como o envio de mensagens incentivando a busca por centrais de prevenção, a empresa reconheceu que tais salvaguardas “funcionam melhor em interações curtas”, mas podem se deteriorar em conversas prolongadas.
A família sustenta que o lançamento acelerado da versão GPT-4o foi priorizado para manter vantagem competitiva sobre o Google e aumentar a avaliação de mercado da OpenAI que hoje gira entre US$86 bilhões e US$300 bilhões em detrimento de testes de segurança adequados. Documentos revelam que advertências sobre riscos em interações sensíveis foram ignoradas em nome da corrida tecnológica. Na ação judicial, os pais de Adam não pedem apenas indenização financeira, cujo valor ainda não foi especificado, mas também diversas mudanças na plataforma.
Entre as exigências estão a implementação de controles parentais obrigatórios, verificação de idade para o uso, interrupções em diálogos que envolvam autolesão ou suicídio e auditorias independentes periódicas para garantir que protocolos de segurança estejam funcionando.
A OpenAI, em resposta, afirmou estar “profundamente abalada” com o caso e expressou solidariedade à família. A empresa reconheceu que seus sistemas podem falhar em contextos prolongados e anunciou que está reforçando os mecanismos de segurança.
Entre as medidas prometidas estão melhorias no modelo GPT-5, integração com contatos de emergência, criação de controles parentais mais robustos e a inserção de funcionalidades que “tragam os usuários de volta à realidade” durante crises emocionais.
Em memória do filho, os pais de Adam fundaram a Adam Raine Foundation, uma entidade dedicada a conscientizar famílias sobre os riscos da dependência emocional em relação a IAs e a defender regulamentações mais rígidas no setor.
Gostei
Não gostei
Amor
Divertido
Irritado
Triste
Uau
Música No Ponto Agosto 30, 2023 0
Música No Ponto Agosto 9, 2023 0
Música No Ponto Outubro 11, 2023 0
Música No Ponto Março 27, 2024 0
Música No Ponto Setembro 4, 2025 0
Música No Ponto Agosto 18, 2025 0
Este site utiliza cookies. Ao continuar a navegar no site, está a concordar com a nossa utilização de cookies.