Sistemas que simulam atividades criativas terão impacto profundo nos negócios, na política e na vida
É uma piada antiga entre cientistas da computação traduzir a sigla IA por “imbecilidade automatizada”. Nos últimos tempos, a brincadeira perdeu a graça, tamanho o avanço nos sistemas de “inteligência artificial”. É verdade que não é muito adequado chamar um software de “inteligência”. Mesmo assim, nos últimos anos a IA ultrapassou barreiras críticas que a tornaram mais acessível — e se tornou o ramo mais promissor e desafiador da tecnologia digital.
A principal das barreiras é um teste atribuído ao matemático britânico Alan Turing: a partir do momento em que um observador não seja mais capaz de distinguir respostas do computador e dos humanos, dizia Turing, será possível afirmar que a máquina é dotada de inteligência. Tal questão filosófica ainda deverá permanecer sem solução por um bom tempo, mas vários sistemas de inteligência artificial lançados recentemente são hoje capazes de enganar os observadores desavisados.
É o caso do robô de bate-papo ChatGPT, desenvolvido pela californiana OpenAI e incorporado pela Microsoft a seu mecanismo de busca Bing. Ou de concorrentes desenvolvidos pelo Google e pela Meta. Ou ainda do Dall-E, programa que gera imagens a partir de descrições em textos. Cada um desses sistemas oferece resultados com um grau desconcertante de semelhança aos produzidos por humanos e levanta questões sobre como o mercado e as leis lidarão com o avanço da IA. Tais questões não são novas. Povoam a ficção científica e as discussões acadêmicas há décadas. O que a nova onda da IA fez foi torná-las urgentes.
Nos anos 1990, ficou claro que não haveria páreo para os computadores em jogos como o xadrez, onde a vitória depende apenas da análise exaustiva de uma quantidade gigantesca, mas finita, de possibilidades. Mas havia ainda um ceticismo fundamentado sobre a capacidade de máquinas suplantarem seres humanos em atividades criativas, como artes visuais, composição de música, de textos ou a própria programação dos computadores.
A inovação determinante para a evolução da IA nas duas últimas décadas foi uma técnica conhecida como “rede neural”. Por meio dela, os sistemas podem ser treinados com quantidades enormes de exemplos e aperfeiçoam suas respostas aos desafios. É como se as máquinas pudessem aprender. Foi esse “aprendizado de máquina” que permitiu aos computadores derrotar seres humanos em jogos de estratégia mais sofisticados, como o Go, e aventurar-se em atividades criativas, como produção de textos e imagens.
A simulação da criatividade oferecida pelo ChatGPT e correlatos se baseia em sistemas capazes de aprender e reproduzir linguagens naturais, conhecidos como “modelos de linguagem ampla” (LLM na sigla em inglês). Eles trazem ao alcance dos computadores todo tipo de manipulação simbólica, em terrenos tão díspares quanto desenho, escrita, programação, música ou projetos de moléculas para a indústria farmacêutica. O tempo da “imbecilidade automatizada” ficou definitivamente para trás.
Os resultados impressionam. Desde que o ChatGPT foi lançado ao público, em novembro passado, escolas e universidades enfrentam dificuldades para lidar com o uso da IA em redações, provas e trabalhos. Um repórter do New York Times foi surpreendido com um diálogo atordoante em que o robô simulava estar apaixonado por ele. A quantidade de informações falsas e erros flagrantes cometidos em várias respostas levou a própria Microsoft a limitar seu uso. Autoridades do mundo todo estão perplexas, preocupadas com o uso da IA em campanhas de desinformação.
As empresas, em contrapartida, estão animadas com a perspectiva trazida a seus negócios. De acordo com a consultoria McKinsey, mais de 50% das corporações já incorporaram robôs de IA em suas operações. No ano passado, grandes companhias americanas adquiriram 52 empresas emergentes do setor, e a quantidade de postos de trabalho para especialistas no aprendizado de máquina foi dez vezes maior que em 2020. O temor é que a IA tenha sobre as atividades criativas o mesmo efeito que outras tecnologias tiveram sobre empregos de natureza mecânica e repetitiva.
Há, é certo, tarefas em que os robôs de IA ainda deixam muito a desejar — instado a produzir o texto de um editorial para esta página, o ChatGPT entregou um resultado impublicável sob qualquer ponto de vista. Mas outras ocupações estão prestes a passar por um período profundo de transformação — o mesmo robô produziu programas de computador corretos, capazes de resolver problemas de complexidade razoável. O mais provável é que, uma vez que evoluam e os riscos sejam mitigados, os robôs de IA sejam auxiliares facilitando o trabalho de profissionais que lidam com conhecimentos técnicos. Não só programadores de computador, mas também médicos, engenheiros, advogados ou jornalistas.
A nova realidade tornará mais salientes os dilemas éticos inerentes à IA. Que acontecerá se ela for usada para cometer crimes? A quem devem pertencer os direitos sobre o que for produzido? Como zelar por um ambiente competitivo que não reproduza a ameaça dos monopólios digitais? Como garantir a evolução da tecnologia com o mínimo de riscos para seus usuários, para a sociedade e para as instituições? Essas são apenas as questões mais evidentes. Juridicamente, será preciso adotar critérios sensatos para regular os direitos autorais, a responsabilidade civil (e mesmo criminal) e o modelo de negócios subjacente ao uso dos robôs. Tal regulação impõe um teste inédito para a inteligência humana.
O Globo