Publicado em 6 de maio de 2023 por Tribuna da Internet
Hélio Schwartsman
Folha
Os não tão novos se lembrarão de quão ruins eram os primeiros programas de computador que se propunham a traduzir textos de um idioma para outro. Muita coisa não fazia sentido e, do que fazia, grande parte estava simplesmente errada. Línguas naturais encerram uma carga quase proibitiva de ambiguidades e polissemias.
O panorama começou a mudar quando os programadores abandonaram a estratégia linguisticamente mais intuitiva de trabalhar em cima de listas de palavras (dicionário) combinadas com as regras sintáticas e partiram para a força bruta.
DUAS LIÇÕES – Inspirados nas ideias de Claude Shannon (1916-2001) e sua teoria da informação e com acesso a megabancos de dados de documentos bilíngues, com bilhões e bilhões de frases, os cientistas resolveram apostar em métodos estatísticos, que analisam todas as possibilidades de traduções registradas, calculam suas frequências e a partir daí tentam adivinhar a expressão “certa”.
Funcionou, e programas como o ChatGPT e seus concorrentes são os filhotes desses algoritmos linguísticos ancestrais.
Vejo aí duas lições a extrair. A primeira é que o sucesso do método revela que clichês e repetições estão muito mais profundamente entranhados em nossas existências do que estaríamos prontos a admitir.
SOMOS PREVISÍVEIS – Gostamos de nos imaginar como seres criativos, mas a verdade é que somos tão previsíveis que, quando computadores modelam nossas repetições e agem segundo seus padrões, eles se passam bem por humanos, sendo aprovados sem maiores dificuldades no teste de Turing.
A segunda lição é que os computadores, ao papagaiar nossas instanciações, acabam reproduzindo nossos vieses. É lamentável, mas não chega a ser uma surpresa que esses programas linguísticos incorram em racismo, delírios, explosões do que parece ser raiva, inventem citações e até mesmo fatos.
Como diria Nietzsche, isso é “humano, demasiado humano”.