Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
Dois funcionários do departamento de Inovação Responsável do Google tentaram e falharam em bloquear o lançamento de seu chatbot AI Bard no mês passado, alertando que era propenso a “declarações imprecisas e perigosas”, revelou o New York Times na sexta-feira (7), citando pessoas familiarizadas com o processo.
Os apreensivos revisores de produtos já haviam notado problemas com grandes modelos de linguagem de IA, como Bard e seu rival ChatGPT, quando o advogado-chefe do Google se reuniu com executivos de pesquisa e segurança para informá-los de que a empresa estava priorizando a IA acima de tudo.
As preocupações da dupla sobre o chatbot produzir informações falsas, ferir usuários que se tornaram emocionalmente apegados ou até mesmo desencadear “violência facilitada pela tecnologia” por meio de assédio em massa sintético foram posteriormente minimizados pela supervisora de Inovação Responsável Jen Gennai, afirmaram as fontes. Embora os revisores tenham instado o Google a esperar antes de lançar Bard, Gennai supostamente editou o relatório para remover totalmente essa recomendação.
Gennai defendeu suas ações ao veículo, apontando que os revisores não deveriam compartilhar suas opiniões sobre o prosseguimento, já que Bard era apenas um experimento. Ela alegou ter melhorado o relatório, tendo “corrigido suposições imprecisas e, na verdade, adicionado mais riscos e danos que precisavam de consideração”. Isso tornava o produto acabado mais seguro, ela insistia.
O Google creditou a Gennai por sua decisão de lançar o Bard como um “experimento limitado”, mas o chatbot ainda está definido para ser totalmente integrado ao mecanismo de busca dominante no mercado do Google “em breve”, de acordo com o próprio site do Google.
O Google já reprimiu rebeliões de funcionários sobre a questão da IA antes. No ano passado, demitiu Blake Lemoine depois que ele alegou que o antecessor de Bard, LaMDA (Modelo de linguagem para aplicativos de diálogo), havia se tornado senciente, enquanto o pesquisador El Mahdi El Mhamdi renunciou depois que a empresa o proibiu de publicar um artigo alertando sobre vulnerabilidades de segurança cibernética em grandes modelos de linguagem, como Bardo. Em 2020, o pesquisador de IA Timnit Gebru foi demitido após publicar uma pesquisa acusando o Google de cautela insuficiente no desenvolvimento de IA.
No entanto, uma facção crescente de pesquisadores de IA, executivos de tecnologia e outros futuristas influentes se opôs ao “progresso” rápido do Google e seus concorrentes da Microsoft e da fabricante de ChatGPT, OpenAI, até que salvaguardas efetivas possam ser impostas à tecnologia. Uma carta aberta recente pedindo uma moratória de seis meses em “experimentos gigantes de IA” atraiu milhares de signatários, incluindo o cofundador da OpenAI, Elon Musk, e o cofundador da Apple, Steve Wozniak.
O potencial da tecnologia para derrubar a sociedade, tornando muitas ocupações humanas (ou os próprios humanos) obsoletas é fundamental para os alertas de muitos especialistas, embora riscos menores, como violações de dados – que já ocorreram na OpenAI – também sejam citados com frequência.