Ciência e Tecnologia

Elon Musk e outros grandes líderes de tecnologia pedem uma pausa em ‘experimentos de IA’

Foto: Gerd Altmann/Pixabay

Elon Musk e dezenas de outros líderes de tecnologia pediram aos laboratórios de IA que interrompessem o desenvolvimento de sistemas que possam competir com a inteligência em nível humano.

Musk, que é um dos cofundadores da OpenAI, criticou a organização várias vezes recentemente, dizendo acreditar que ela está divergindo de seu propósito original.

CONTINUE LENDO APÓS O ANÚNCIO

Em carta aberta do Future of Life Institute, assinada por Musk, a Apple o cofundador Steve Wozniak e o candidato presidencial de 2020, Andrew Yang, os laboratórios de IA foram instados a interromper o treinamento de modelos mais poderosos que o GPT-4, a versão mais recente do grande software de modelo de linguagem desenvolvido pela startup americana OpenAI.

A carta pede aos desenvolvedores de IA que “pausem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”. Foi emitido pelo Future of Life Institute e assinado por mais de 1.000 pessoas, incluindo Musk, que argumentou que os protocolos de segurança precisam ser desenvolvidos por supervisores independentes para orientar o futuro dos sistemas de IA. O GPT-4 é o mais recente modelo de aprendizado profundo da OpenAI , que “exibe desempenho de nível humano em vários benchmarks profissionais e acadêmicos”, de acordo com o laboratório. 

CONTINUE LENDO APÓS O ANÚNCIO

“Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, diz a carta.

A carta adverte que, nesta fase, ninguém “pode entender, prever ou controlar de forma confiável” as poderosas novas ferramentas desenvolvidas em laboratórios de IA. Os especialistas em tecnologia abaixo assinados citam os riscos de propaganda e mentiras espalhadas por meio de artigos gerados por IA que parecem reais, e até mesmo a possibilidade de que os programas de IA possam superar os trabalhadores e tornar os empregos obsoletos. 

CONTINUE LENDO APÓS O ANÚNCIO

“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, afirma a carta.

“Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA”.

CONTINUE LENDO APÓS O ANÚNCIO

Os signatários, que incluem o CEO da Stability AI, Emad Mostaque, pesquisadores da DeepMind, de propriedade da Alphabet , bem como os pesos pesados ​​da IA, Yoshua Bengio e Stuart Russell, enfatizam que o desenvolvimento da IA ​​em geral não deve ser interrompido, escrevendo que sua carta está pedindo “meramente uma recuando da corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes.”

 

CONTINUE LENDO APÓS O ANÚNCIO

De acordo com o registro de transparência da União Europeia , o Future of Life Institute é financiado principalmente pela Fundação Musk, bem como pelo grupo de altruísmo eficaz com sede em Londres, Founders Pledge, e pela Silicon Valley Community Foundation.

Musk, cuja empresa de carros elétricos Tesla usa IA para seu sistema de piloto automático, já havia levantado preocupações sobre o rápido desenvolvimento da IA. 

CONTINUE LENDO APÓS O ANÚNCIO

Desde seu lançamento no ano passado, o ChatGPT da OpenAI, apoiado pela Microsoft, levou os rivais a acelerar o desenvolvimento de modelos de linguagem grandes semelhantes e as empresas a integrar modelos de IA generativos em seus produtos.

CONTINUE LENDO APÓS O ANÚNCIO

© 2024 Todos os direitos reservados Gazeta Brasil.

Sair da versão mobile