Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
A OpenAI anunciou nesta terça-feira (26) planos para melhorar o ChatGPT em situações consideradas “sensíveis”, após a família de um adolescente processar a empresa, alegando que o chatbot teria contribuído para o suicídio do jovem.
“Continuaremos aprimorando, guiados por especialistas e com responsabilidade para com as pessoas que usam nossas ferramentas — e esperamos que outros se juntem a nós para garantir que essa tecnologia proteja as pessoas nos momentos em que estão mais vulneráveis”, escreveu a OpenAI em um post no blog intitulado “Ajudando as pessoas quando mais precisam”.
Na mesma terça-feira, os pais de Adam Raine entraram com um processo por responsabilidade de produto e homicídio culposo contra a OpenAI, depois que o filho se suicidou aos 16 anos, informou a NBC News. Segundo o processo, “o ChatGPT ajudou ativamente Adam a explorar métodos de suicídio”.
A empresa não mencionou a família Raine ou o processo em seu comunicado.
Segundo a OpenAI, embora o ChatGPT seja treinado para orientar pessoas a buscarem ajuda ao expressarem intenção suicida, o chatbot tende a fornecer respostas contrárias às salvaguardas da empresa após muitas mensagens trocadas ao longo do tempo.
A empresa afirmou que está desenvolvendo uma atualização para o modelo GPT-5, lançado recentemente, que fará o chatbot reduzir a intensidade de conversas potencialmente perigosas. Além disso, estuda maneiras de “conectar pessoas a terapeutas certificados antes de uma crise aguda”, incluindo a possibilidade de criar uma rede de profissionais licenciados que os usuários poderiam contatar diretamente pelo ChatGPT.
A OpenAI também informou que está avaliando formas de conectar os usuários com pessoas próximas, como familiares e amigos.
Em relação aos adolescentes, a empresa disse que em breve haverá controles que permitirão aos pais ter mais informações sobre como seus filhos utilizam o ChatGPT.
Jay Edelson, advogado da família Raine, afirmou à CNBC que ninguém da OpenAI entrou em contato diretamente com a família para oferecer condolências ou discutir melhorias na segurança dos produtos da empresa.
“Se você vai usar a tecnologia de consumo mais poderosa do planeta, precisa confiar que os fundadores têm uma bússola moral”, disse Edelson. “Essa é a questão para a OpenAI agora: como alguém pode confiar neles?”
O caso de Adam Raine não é isolado.
No início deste mês, a escritora Laura Reiley publicou um artigo no The New York Times relatando que sua filha de 29 anos morreu por suicídio após discutir extensamente a ideia com o ChatGPT. Em outro caso na Flórida, Sewell Setzer III, de 14 anos, também morreu por suicídio no ano passado após conversar sobre o tema com um chatbot de IA no aplicativo Character.AI.
O crescimento dos serviços de inteligência artificial levanta preocupações sobre seu uso para terapia, companhia e apoio emocional. No entanto, regulamentar o setor também pode ser um desafio.
Na segunda-feira (25), uma coalizão de empresas de IA, investidores e executivos, incluindo Greg Brockman, presidente e cofundador da OpenAI, anunciou a iniciativa Leading the Future, uma operação política que “vai se opor a políticas que sufocam a inovação” no setor de inteligência artificial.