Empresas líderes em IA, incluindo a OpenAI, fazem alerta sobre a tecnologia

Declaração foi assinada por mais de 350 executivos e pesquisadores, em lista que inclui Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT

CEO da OpenAI faz parte de grupo de líderes que alerta sobre riscos da IA em nível comparável ao de pandemia e guerra nuclear
Por Jackie Davalos
30 de Maio, 2023 | 04:35 PM

Leia esta notícia em

Espanhol

Bloomberg — Os CEOs de algumas das empresas líderes em inteligência artificial, incluindo DeepMind, OpenAI e Anthropic, da Alphabet (GOOGL), juntaram-se a um coro crescente de companhias alertando sobre os danos existenciais da tecnologia em rápido desenvolvimento.

Uma breve declaração divulgada nesta terça-feira (30) pela Center for AI Safety, uma organização sem fins lucrativos, disse: “mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

A declaração foi assinada por mais de 350 executivos e pesquisadores, incluindo Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT, Demis Hassabis, que dirige a DeepMind, e Dario Amodei, CEO da Anthropic, uma startup cofundada por veteranos da OpenAI.

A nota de frase única é o mais recente alerta de alto perfil dos líderes da indústria que chama a atenção para os sérios riscos que a inteligência artificial representa para a sociedade.

PUBLICIDADE

Em março, mais de 1.100 líderes da indústria, incluindo Elon Musk, Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley, e Steve Wozniak, cofundador da Apple (AAPL), defenderam uma pausa de seis meses no treinamento de poderosos modelos de IA.

Apesar dos avisos dos líderes de tecnologia, alguns céticos afirmam que a inteligência artificial não está em um estágio avançado o suficiente para justificar o medo de destruição da humanidade e que o foco em cenários apocalípticos é apenas uma distração de questões como viés algorítmico, racismo e risco de desinformação desenfreada.

“Acho que é uma forma de controlar a narrativa”, disse Sasha Luccioni, pesquisadora da startup de IA Hugging Face. “Deveríamos falar sobre legislação, coisas como os riscos de viés, as formas como a IA está sendo usada que não são boas para a sociedade, mas, em vez disso, estamos nos concentrando nos riscos hipotéticos”, disse ela em entrevista à Bloomberg Technology. “É meio que um hat trick.”

No início deste mês, Geoffrey Hinton - um dos chamados padrinhos da inteligência artificial que passou décadas revolucionando o campo e ajudando a criar as tecnologias avançadas de aprendizado de máquina de hoje - anunciou que ele estava saindo da equipe de pesquisa de IA do Google e disse que as empresas estavam se movendo muito rapidamente na implantação de IA para o público.

- Com assistência de Ed Ludlow e Caroline Hyde.

Veja mais em Bloomberg.com

Leia também

PUBLICIDADE

Como o Mercado Livre define novos negócios e o plano como plataforma de mídia

Neuralink, de Musk, diz que já pode testar implantes cerebrais em humanos

Airbnb amplia foco em estadia econômica diante de hóspedes sensíveis a preço