Eu já disse isso antes, mas vale a pena dizer novamente. Todos nós sabemos, no fundo, que a atual onda de IA generativa é uma bolha de hype, e alguns de nós temem que seja perigosa.

Se você duvida disso, considere a visão de Sam Altman, superstar empreendedor, dando a notícia ao Fórum Econômico Mundial em Davos, de que a tempestade de IA liderada por seu veículo OpenAI, vai exigir tanta energia que também precisará da energia de sua startup de fusão de fantasia Helion.

Davos é exatamente o fórum certo para uma declaração como essa. Uma vez por ano, os super-ricos se reúnem em uma estação de esqui, com a presença de líderes mundiais eleitos e não eleitos, e examinam seus umbigos. Janeiro é normalmente um deserto de notícias, então o mundo é presenteado com suas últimas ideias sobre como eles podem salvá-lo por qualquer meio, o que é a moda atual entre os super-ricos.

Microsoft diz para continuar

A OpenAI agora é financiada - sejamos honestos, efetivamente de propriedade - pela Microsoft, que está construindo e financiando os vastos recursos de nuvem que o ChatGPT devora e está pronta para simplesmente levar tudo internamente se alguém balançar o barco.

A Microsoft agora vale 3 trilhões de dólares (17 trilhões de reais), e o CEO Satya Nadella recebeu tratamento de estrela em Davos, concedeu um bate-papo no palco com o fundador de Davos, Klaus Schwab, e relatou em detalhes seus pensamentos sobre a tecnologia - essencialmente, temos que continuar fazendo isso, ao mesmo tempo em que estabelecemos regulamentos para quaisquer consequências não intencionais.

Enquanto dizia isso, Altman certamente estava atrapalhando a agenda de "fazer isso", falando de um crescimento da IA tão grande que precisa de fusão.

Foi a Microsoft que deu credibilidade à Helion de Altman, assinando um contrato de compra de energia para tirar 50 MW de energia da empresa de fusão até 2028. Sim, cinco anos para produzir e entregar uma tecnologia que não funciona, em um setor onde o licenciamento não pode levar menos de dez anos.

Altman está certo sobre as demandas de energia. Se aceitarmos que "precisamos" de IA generativa, então a IA generativa certamente precisa de energia. As demandas por sites atuais agora são tão grandes que os Data Centers dedicados a eles estão tendo que se localizar longe dos hubs tradicionais, em lugares como Islândia, Noruega e Edge. Os locais tradicionais já estavam inundados com um boom gigante. Este é outro boom em cima disso.

E sim, eu sei que o uso de eletricidade do Data Center ainda é apenas um ou dois pontos percentuais do consumo geral de eletricidade, mas estamos pressionando os limites de eficiência, e o tipo de crescimento previsto agora poderia plausivelmente usar tanta energia quanto a Holanda dentro de alguns anos. Essa previsão, de Alex de Vries, do Digiconomist, é baseada simplesmente nos planos de fabricação e vendas da Nvidia.

Nesse contexto, e no fórum bajulador de Davos, um projeto de fusão de fantasia se encaixa perfeitamente.

É apenas um pouco mais satírico que o Del Complex, o projeto de arte provocante que propunha barcaças gigantes de IA realizando milagres de IA e mexendo com a inteligência humana, onde os super-ricos adoram estar, fora das águas territoriais. Estou pesquisando no Google e, pelo que posso dizer, o Del Complex não estava realmente em Davos, mas estava lá em espírito.

A indústria gosta de falar sobre net-zero, assim como os devotos de Davos gostam de falar sobre o fim dos salários excessivos e do elitismo. A realidade pode envolver algumas mudanças reais.

Mas espere, por quê?

Além das preocupações óbvias com a energia, porém, há uma questão real: o que estamos fazendo com a IA e por quê?

Essa é uma questão diferente da legislação de que Nadella está falando, contra consequências como o bicho-papão da inteligência artificial geral (AGI). Esse medo, impulsionado por pessoas como Elon Musk, é na verdade uma parte paradoxal do movimento da IA.

Os perigos reais são sutilmente explorados pelo pesquisador de IA e professor de design interdisciplinar de Cambridge, Alan Blackwell, em um livro que será lançado esse ano chamado Moral Codes.

Ele coloca alguns pontos importantes desde o início. Os computadores deveriam automatizar o trabalho penoso, mas isso não aconteceu. Muitos empregos agora são "empregos horríveis" que realizam tarefas sem sentido, enquanto a IA generativa está sendo preparada para fazer um trabalho criativo, embora o que a IA generativa realmente faz tenha sido resumido de forma sucinta pelo professor de IA Rodney Brooks: "Isso apenas inventa coisas que soam bem".

A explosão de informações está criando um excesso de dados, e o corolário disso é um déficit de atenção. Os humanos simplesmente não têm a capacidade cognitiva de entender e avaliar todo o conteúdo e dados que estão sendo produzidos, então precisamos de máquinas para fazer isso por nós, para ler todas as coisas que não podemos e de uma forma massivamente não confiável, nos contar sobre isso.

"Existem duas maneiras de vencer o Teste de Turing", diz Blackwell. "A maneira mais difícil é construir computadores que sejam cada vez mais inteligentes, até que não possamos diferenciá-los dos humanos. A maneira mais fácil é tornar os humanos mais estúpidos, até que não possamos diferenciá-los dos computadores”.

Ainda estou absorvendo os pensamentos do livro de Blackwell. No mínimo, é um conjunto de sinais para lidar com as consequências morais da IA.

Mas, embora esse trabalho moral não esteja concluído, realmente tenho dúvidas sobre a necessidade urgente de avançar a todo vapor com o tipo de projetos gigantes de IA de que ouvimos falar com tanta frequência.

Antes do como, podemos pensar por quê?