Quando a OpenAI decidiu colocar no mundo sua criatura – seu próprio Frankenstein – e assombrou todo aquele que se pôs a conversar com o programa de inteligência artificial (IA) generativa, o que a pretensa organização sem fins de lucro gerou foram apreensões no Vale do Silício, não apenas porque o robô era muito bom, mas porque Sam Altman, o CEO, tinha decidido saltar no abismo – e levar junto toda a humanidade.
Modelos de inteligência IA que emulam linguagem humana já existiam havia algum tempo, mas até então as Big Techs estavam sendo cautelosas sobre como lançá-la, dado que a quantidade de erros e os potenciais riscos pareciam ser grandes demais. Sam Altman preferiu repetir o estratagema que ajudou essas mesmas Big Techs a dominar a internet: lançou um produto não finalizado no mundo e botou todos os usuários como cobaias em um enorme experimento tecnológico e social para aprimorar seu Frankenstein.
Para a maioria das pessoas, é difícil entender como estamos brincando com fogo ao liberarmos a IA na sociedade, ainda mais sem o mínimo de regulamentação – urgente, necessária, que venha este ano, oxalá. Mas as empresas que desenvolvem IA são as primeiras a saber dos buracos e riscos dos seus modelos.
Vejam só o anúncio recente de uma bolsa de pesquisa oferecida pela própria OpenAI, que pode ajudar a esclarecer o tamanho do abismo em que estamos nos metendo.
Um tal “fundo rápido de superalinhamento 2024” promete distribuir quantidades milionárias de fundos para pesquisadores resolverem um problemão que está sendo construído pela própria equipe da OpenAI e outros engenheiros, o chamado “superalinhamento” – na indústria da tecnologia, “alinhamento de IA” é o termo usado para o esforço de fazer com que os robôs obedeçam aos humanos que os criaram. Ou seja, a bolsa tentará resolver o fato de que em poucos anos vamos ver sistemas de IA “superinteligentes” que, de tão complexos, será impossível para seres humanos monitorá-los e, portanto, mandar neles efetivamente.
Quem diz não sou eu, é a própria empresa. Vejam só: “Acreditamos que a superinteligência pode surgir nos próximos 10 anos. Esses sistemas de IA teriam vastas capacidades, podendo ser extremamente benéficos, mas também potencialmente apresentar grandes riscos”, diz o site da OpenAI.
O texto prossegue: “Os sistemas de IA superiores aos humanos serão capazes de comportamentos complexos e criativos que os humanos não conseguem compreender totalmente. Por exemplo, se um modelo super-humano gerar um milhão de linhas de código extremamente complicadas, os humanos não serão capazes de avaliar de maneira confiável se o código é seguro ou perigoso para execução. Técnicas de alinhamento existentes, que dependem da supervisão humana, podem não ser mais suficientes. [...] Este é um dos problemas técnicos não resolvidos mais importantes do mundo”.
Caso ainda não esteja claro para meu leitor, acho importante lembrar que ninguém exatamente sabe como funciona a IA nem como pode ser usada para fins espúrios. Como é um robô que se autodesenvolve, não é possível nem determinar seu comportamento nem predizer para onde ele vai. Por isso, o que se pode fazer é “treiná-lo” com bases de dados determinadas (milhões de sites em toda a internet, que é o que fez a OpenAI sem pagar um tostão para os seres humanos que produziram essa informação toda) e depois monitorar proximamente o seu desenvolvimento a partir de técnicas diversas, como o tal “feedback humano” (sim, quando você responde ao ChatGPT se uma resposta foi satisfatória, isso é você trabalhando para a OpenAI e ajudando a pagar o milionário salário de Sam Altman).
“Mas a verdade é que estamos lidando com caixas-pretas, mecanismos indecifráveis, que devem tornar-se ainda mais indecifráveis à medida que adquirem uma inteligência “humana” ou, ainda, “super-humana”.
A mesma bolsa da OpenAI convida pesquisadores a tentar entender como funciona de fato o robozinho, vejam só. De novo, não sou eu que estou usando o termo “caixa- preta” para dar efeito literário, não. O termo vem da própria empresa. “Via de regra, os sistemas de IA modernos são caixas-pretas inescrutáveis. Eles podem fazer coisas incríveis, mas não entendemos como funcionam”, diz o site da empresa. A OpenAI convida então pesquisadores a buscar realizar uma “neurociência digital” para “entender o que nossos modelos estão pensando e por que estão fazendo o que fazem”.
Para completar o tom sinistro do tal desafio acadêmico, a OpenAI explica que “muitas histórias de falhas de alinhamento consistem em modelos que tentam minar as tentativas humanas de supervisioná-los”. Parece filme de ficção científica, mas, para os engenheiros que estão moldando nosso futuro, não é.
O programa de bolsa é uma parceria com Eric Shmidt, ex-CEO do Google, um dos responsáveis pelo maior monopólio da história da humanidade. E só demonstra mais uma vez que, cientes do tamanho do pepino em que estão se metendo, os CEOs do Vale do Silício estão querendo compartilhar a mitigação de danos com a sociedade, pagando até uma graninha, mas longe de assumir a responsabilidade por esses riscos.
Existe um conceito amplamente usado dentro da comunidade de tecnologia que resume a postura de muitos dos engenheiros que trabalham com IA de ponta: “AI doomerism”, algo como uma visão apocalíptica da IA, ou seja, muitos daqueles que trabalham com esse robôs inescrutáveis acreditam que eles podem levar à extinção da humanidade. Como o grupo de engenheiros que decidiu sair da OpenAI e criou a Anthropic, uma startup que pretende evitar o apocalipse ao enfocar a segurança em primeiro lugar. Vale ler esta reportagem do New York Times que retrata a apreensão dentro da empresa quando lançaram seu próprio chatbot generativo.
Alguns dos funcionários afirmaram ao repórter Kevin Roose que a ideia da Anthropic é criar uma “corrida” por quem vai ter o chatbot mais seguro, criando uma “concorrência pela segurança”. Já outros acreditam no altruísmo eficaz, que mencionei brevemente na semana passada – a crença de que você deve trabalhar para beneficiar bilhões de pessoas que vão viver no futuro, e assim vale até causar problemas para as que estão vivas hoje.
Mas a maioria dos funcionários da startup mistura seu entusiasmo pela tecnologia com um pessimismo galopante.
“Minha preocupação é: o modelo vai fazer algo terrível que não percebemos?”, afirmou ao repórter o executivo-chefe da empresa. Muitos outros se comparam com Robert Oppenheimer, o criador da bomba atômica.
“Eles estão assustados – em um nível profundo, existencial – com a própria ideia do que estão fazendo: construindo modelos de IA poderosos e liberando-os nas mãos das pessoas que podem usá-los para fazer coisas terríveis e destrutivas.”
Para os trabalhadores da Anthropic, nos próximos anos chegaremos à “inteligência artificial geral” (AGI), ou seja, robôs que serão capazes de ter um raciocínio similar ao de uma pessoa com formação universitária. “Eles temem que, se não forem cuidadosamente controlados, esses sistemas poderiam assumir o controle e nos destruir”, diz a reportagem do New York Times. Ou seja: os engenheiros que constroem esses robôs estão preocupados com o fim do mundo, com o meu fim e o seu. E seguem criando o monstro.
Se isso não é motivo suficiente para os governos de todo o mundo correrem para regular esse mercado, eu não sei o que seria.