A Alemanha poderia “em princípio” bloquear o acesso ao chatbot ChatGPT da OpenAI devido a questões de privacidade, disse uma porta-voz do comissário de proteção de dados do país ao jornal Handelsblatt na segunda-feira.
“Em princípio, um procedimento semelhante também é possível na Alemanha”, disse ao jornal a porta-voz do comissário federal de proteção de dados Ulrich Kelber , referindo-se à proibição italiana.
A Autoridade Nacional de Proteção de Dados Pessoais da Itália ordenou que o ChatGPT fosse temporariamente desativado na sexta-feira, enquanto investigava uma suspeita de vazamento de dados do usuário pelo aplicativo no mês passado. O regulador italiano também criticou o ChatGPT por não notificar os usuários de que coleta e armazena suas informações e por não instalar nenhum filtro para verificar a idade do usuário.
A porta-voz de Kelber disse que atualmente não há planos para proibir o chatbot na Alemanha e que tal decisão cairia sob a jurisdição de cada estado do país.
O escritório de Kelber está atualmente buscando “informações adicionais” das autoridades italianas para repassá-las aos reguladores estaduais na Alemanha, acrescentou ela. Os vigilantes da privacidade franceses e irlandeses também entraram em contato com seus colegas italianos para discutir a investigação, informou a Reuters na segunda-feira.
Lançado em novembro de 2022, o ChatGPT usa o modelo de linguagem GPT-3.5 da OpenAI para responder às perguntas dos usuários, resolver problemas matemáticos e escrever histórias, poemas e até códigos de computador. Embora o CEO da OpenAI, Sam Altman, admita que sua tecnologia poderia “eliminar muitos empregos atuais”, os críticos alertaram sobre a possibilidade mais prejudicial de que o chatbot represente um passo inicial em direção à inteligência artificial eclipsando a inteligência humana e escapando do controle humano.
Mais de 1.100 pesquisadores de IA e líderes tecnológicos proeminentes, incluindo o CEO da Tesla, Elon Musk, e o cofundador da Apple, Steve Wozniak, assinaram uma carta aberta no mês passado exigindo uma moratória de seis meses em “experimentos gigantes de IA”.