Este especialista do Vale do Silício alerta para os riscos da onda de IA

Ricardo Baeza-Yates, diretor de pesquisa do Instituto de IA Experimental da Universidade Northeastern, diz à Bloomberg Línea que muitos vieses não podem ser eliminados

'Usar esses sistemas como um mecanismo de busca é uma péssima ideia'
15 de Março, 2023 | 05:05 AM

Leia esta notícia em

Espanhol

Bloomberg Línea — A apresentação da ferramenta de Inteligência Artificial (IA) generativa do Google e da nova versão do ChatGPT pela OpenAI evidencia que a corrida pela inovação nesse campo está avançando rapidamente. E isso representa não só oportunidades, mas também riscos que devem ser observados, especialmente aqueles de natureza ética. É o que afirma o chileno Ricardo Baeza-Yates, uma referência global em IA, em entrevista à Bloomberg Línea.

Atualmente Diretor de Pesquisa do Instituto de Inteligência Artificial Experimental da Northeastern University no Vale do Silício e professor na Universitat Pompeu Fabra (UPF) de Barcelona, o especialista vem destacando os desafios éticos desse tipo de algoritmo há décadas.

Foi em 2006, após 30 anos de pesquisa em assuntos como algoritmos, mineração de dados e busca na web, que o especialista saltou do âmbito acadêmico para a indústria: ele criou o laboratório de pesquisa Yahoo Labs para a Europa, localizado em Barcelona, e começou a utilizar técnicas da aprendizagem automática, o machine learning.

No Vale do Silício, o pesquisador se dedica principalmente aos vieses da inteligência artificial: não apenas aqueles inerentes às pessoas, mas também aqueles que ocorrem dentro dos sistemas de tecnologia e da web.

PUBLICIDADE

Baeza-Yates falou à Bloomberg Línea durante sua participação no Mobile World Congress no início do mês, evento no qual foi palestrante em uma conferência sobre ética em Inteligência Artificial. Na entrevista, alerta para o lado obscuro da tecnologia e seu impacto no local de trabalho e nos negócios. Embora Baeza-Yates expresse, em algumas passagens da conversa, uma expectativa um tanto “utópica” sobre o impacto da IA na sociedade, em outros momentos oferece uma visão mais realista a respeito dessa tecnologia.

Ele rejeita o uso de chatbots como mecanismos de busca (que poderiam levar a humanidade a uma “Idade Média da Informação”), critica a iniciativa da União Europeia de regulamentar o uso da IA e discorda que a inteligência artificial constitua a nova eletricidade (uma variação do slogan da moda “os dados são o novo petróleo”).

“Definitivamente não. Em primeiro lugar, a inteligência artificial precisa de eletricidade e não pode substituí-la; em segundo lugar, a eletricidade sempre funciona e a IA não.”

(Foto: Divulgação Fundação BBVA)

Veja a seguir a entrevista, que foi editada por tópicos para fins de clareza.

→ Ética da Inteligência Artificial

Quais considerações éticas as empresas devem levar em conta ao utilizar a Inteligência Artificial para tomar decisões importantes?

Há várias recomendações. Por exemplo, a UNESCO emitiu algumas recomendações em novembro de 2021; em outubro do ano passado, a Casa Branca listou cinco princípios para este tipo de sistema, e a ACM (Association for Computing Machinery), a maior associação mundial de ciência da computação, anunciou uma nova recomendação no final de 2022, que substitui a recomendação de 2017, uma das primeiras sobre o uso responsável do algoritmo.

Estes são os princípios da ACM – que ajudei a elaborar – para o bom uso dos algoritmos: Legitimidade e competência, Minimização de danos, Segurança e privacidade, Transparência, Interpretabilidade e explicabilidade, Mantenabilidade, Contestabilidade e auditabilidade, Responsabilização e responsabilidade e Limitação do impacto ambiental.

PUBLICIDADE

Basicamente, esse código de conduta visa assegurar que, antes de adotar a tecnologia de IA, as empresas devem fazer uma análise de impacto ético e verificar se o benefício em potencial (para as pessoas e o meio ambiente) supera o dano em potencial. Há também pontos relacionados à transparência, poder reclamar quando há um problema, prestação de contas e responsabilidade.

Uma das críticas à Inteligência Artificial que gera conteúdo é a parcialidade que ela herda da própria sociedade, tendências racistas, de gênero, religião ou até mesmo econômicas. Suponho que não seria possível eliminá-lo, mas como podemos minimizá-lo?

É possível minimizar esses vieses, embora não consigamos eliminá-los porque muitos são invisíveis até que ocorram. Agora, esses vieses não estão apenas nos dados, muitas vezes o próprio sistema amplifica essas questões e também a interação do usuário com o sistema – por exemplo, no e-commerce há muitos vieses que as pessoas não percebem, como a ordem dos resultados que afeta a página que escolhemos.

Portanto, os vieses, além de estarem relacionados aos dados coletados pela IA, também são gerados por outros elementos. Como minimizá-los então?

Exatamente. O sistema, se estiver ciente disso, pode minimizá-los. Vou dar um exemplo muito simples de um dos vieses mais conhecidos e que é possível suprimir: muitas pessoas, quando fazem uma busca, confiam nos primeiros resultados só porque são exibidos primeiro, não porque são os melhores. É um viés de tipo cognitivo. É possível fazer experimentos para minimizar esses vieses: mudar a ordem dos resultados para que seja possível extrair o valor intrínseco, o correto.

O uso de IA generativa e assistentes de voz está mudando totalmente a maneira como pesquisamos e os resultados que acessamos. Agora temos uma lista de resultados nas páginas de ferramentas de busca, mas com as novas tecnologias receberemos menos resultados. Isso aumentará os vieses e nos colocará em bolhas?

Certamente sim. Acredito que é ainda pior, porque um ChatGPT é outro tipo de ferramenta, não pode ser tratado como um mecanismo de busca.

Mas eles querem transformá-la também em um mecanismo de busca. Pelo menos esse foi o principal motivo dado pela Microsoft quando ela investiu US$ 10 bilhões na OpenAI para integrar a tecnologia em seu mecanismo de busca Bing...

Sim, mas por definição não é um mecanismo de busca. Um mecanismo de busca, por exemplo, tem que dar as referências das fontes, ter certeza de que está trazendo a verdade, há muitas coisas que estes sistemas ainda não fazem – na verdade, eles inventam coisas. Portanto, não só há menos diversidade, mas também há coisas que não são verdadeiras. E isso para mim é muito sério, porque o mecanismo de busca deixa de ser uma fonte de conhecimento e passa a ser uma fonte de ficção.

Usar esses sistemas como um mecanismo de busca é uma péssima ideia – é por isso que o Google pisou no freio [somente ontem a big tech apresentou ao mercado sua ferramenta de IA generativa]. Portanto, vai haver muitos problemas e para mim será como uma espécie de Idade Média da Informação, que aumentará o abismo digital e até o linguístico: idiomas com muitos recursos linguísticos, que devem representar cerca de 300 idiomas, ante cerca de 7.000 falados globalmente, trarão resultados melhores. É como uma Torre de Babel na qual cada idioma tem um conhecimento diferente.

Qual maneira você acredita ser correta para introduzir a IA em modelos educacionais para aproveitar seu potencial, para que não acabe afetando o pensamento crítico?

Não há como voltar atrás no uso da inteligência artificial conversacional. Sei de um caso muito interessante nos Estados Unidos que muda o paradigma do uso dessa tecnologia. O professor disse aos alunos que eles deveriam usar a ferramenta e que a parte principal do exercício seria verificar se tudo o que a IA generativa diz é verdade.

→ Inteligência Artificial nos Negócios

Qual é o maior impacto da IA nos negócios até agora?

O impacto é gigantesco porque existem milhares de sistemas que utilizam IA diariamente, começando com sistemas de recomendação de e-commerce, pela previsão de palavras quando você digita, quase todos os aplicativos móveis, reconhecimento facial (para o bem e para o mal). Tudo isso já existia, a novidade é o ChatGPT.

Como você vê o uso da IA para a tomada de decisões comerciais? Você acredita que é uma ferramenta eficaz para melhorar a eficiência e a rentabilidade das empresas?

Ela pode melhorar a produtividade, fazer mais coisas mais rapidamente e, consequentemente, pode afetar a lucratividade.

Existe algum setor ou área que, na sua opinião, não deveria embarcar na inteligência artificial?

Acredito que a inteligência artificial não deve ser usada para tomar decisões que afetam as pessoas nas áreas de educação, finanças, justiça... Porque é uma questão de ética. Eu quero decidir quem deve obter uma bolsa de estudos ou um empréstimo ou quem deve ser libertado ou considerado culpado em um julgamento. A abordagem é que eu utilizo os dados de outras pessoas, de outros julgamentos, para decidir sobre o seu caso. Cada pessoa é única, com um contexto único, com características únicas. A justiça é personalizada, as decisões financeiras devem ser personalizadas, os dados apenas modelam parte do problema e acabam gerando discriminação.

Quais são alguns dos maiores desafios que a IA enfrenta atualmente e como podemos enfrentá-los?

Basicamente o cumprimento dos princípios – quem verifica isso? Não há uma “polícia”, nenhuma instituição responsável por isso.

Mas você acredita que deveria haver uma agência reguladora para inteligência artificial?

Acredito que não, é um erro regulamentar o uso de uma tecnologia. Seria como regulamentar o uso do martelo: é claro que o martelo pode ser usado para coisas ruins e boas. Imagine que para cada nova tecnologia temos que preparar outra regulamentação – e essa regulamentação teria que ser coerente com a anterior.

Como você avalia a decisão a Europa de conter as grandes tecnologias, especialmente o uso de IA, com um pacote legislativo?

Esta é a primeira vez na história da humanidade que tentamos regular uma tecnologia na Europa. Até agora, sempre regulamos o problema (como a Europa fez com a proteção de dados e medicamentos), independentemente da tecnologia utilizada. Além disso, a regulamentação atual tem muitas brechas. A Espanha quer elaborar uma regulamentação que ainda não foi decidida [esta semana, a Extremadura anunciou que será a primeira comunidade autônoma espanhola a regulamentar a inteligência artificial].

[A proposta de Lei de IA, divulgada em 2021 pela Comissão Europeia, pretende ser a primeira lei de IA do mundo e classifica o uso de IA de acordo com o risco. Ela proíbe, por exemplo, aplicativos que representam um “risco inaceitável”, como os sistemas de pontuação social do governo usados na China].

→ Inteligência Artificial no Trabalho

Como você acha que a Inteligência Artificial irá mudar a natureza do trabalho humano a curto, médio e longo prazo?

Depende muito se estamos pensando em usar a tecnologia para substituir as pessoas ou se estamos pensando nisso para ajudar a complementar as pessoas.

Mas o que as empresas querem é eficiência operacional, o que também significa produzir mais com menos recursos...

Sim, mas acredito que seja um erro no longo prazo. Há coisas que os algoritmos não podem fazer, há coisas em que os seres humanos são únicos – e serão únicos por muito tempo. Isto é, compreender as coisas de verdade, o senso comum... Neste caso, eu colocaria um objetivo diferente: como a IA deve ser usada? Eu a usaria para nos complementar, por exemplo, colocaria os robôs para fazer todos os trabalhos que ninguém quer fazer, os trabalhos que exigem o uso de força física, os trabalhos enfadonhos...

Parece um pouco utópico, inclusive porque há pessoas que não podem escolher trabalhos que as fazem felizes.

Mas o problema é esse. Acredito que é possível escolher um tipo diferente de sociedade. Imagine se todos estivessem fazendo o que gostam de fazer e desenvolvendo o potencial que têm como pessoa. Até faria sentido ter um salário universal para aqueles que contribuem de alguma forma para a sociedade. O impacto da inteligência artificial, para mim, seria positivo se quiséssemos que este fosse o objetivo. Seria como uma nova Renascença.

Leia também

Inteligência artificial criará paradigma para buscas, diz CEO da Microsoft

Inteligência artificial tomará decisões melhores que CEOs, diz Nobel de Economia

Michelly Teixeira

Jornalista com mais de 20 anos como editora e repórter. Em seus 13 anos de Espanha, trabalhou na Radio Nacional de España/RNE e colaborou com a agência REDD Intelligence. No Brasil, passou pelas redações do Valor, Agência Estado e Gazeta Mercantil. Tem um MBA em Finanças, é pós-graduada em Marketing e fez um mestrado em Digital Business na ESADE.