Certificado Lei geral de proteção de dados

Certificado Lei geral de proteção de dados
Certificado Lei geral de proteção de dados

terça-feira, setembro 27, 2022

Inteligência Artificial não enxerga como os humanos - e isso não é bom

 




A inteligência artificial não estranha o frankenstein e o enquadra na categoria mais similar.

Ilusões de óptica artificiais

As redes neurais convolucionais profundas (RNCPs) não veem os objetos da maneira como os humanos veem - e isso pode ser perigoso em aplicações da inteligência artificial no mundo real.

Esta é a conclusão dos professores Nicholas Baker e James Elder, da Universidade de York, no Canadá, que descobriram que as técnicas mais usadas no processamento de imagens para visão artificial - ou visão de máquina - não usam o mecanismo da visão humana, conhecido como percepção configurável de forma.

Os dois pesquisadores usaram estímulos visuais, conhecidos como "frankensteins", para explorar como o cérebro humano e as redes neurais processam as propriedades dos objetos.

"Frankensteins são simplesmente objetos que foram desmontados e montados de forma errada," explicou Elder. "Como resultado, eles têm todos as características locais corretas, mas nos lugares errados."

A grande descoberta é que, enquanto o sistema visual humano é confundido pelos frankensteins, as RNCPs não são, revelando uma insensibilidade da visão artificial às propriedades dos objetos e oferecendo respostas incorretas em suas tentativas de identificação.

"Nossos resultados explicam por que modelos de IA profundos falham sob certas condições, e apontam para a necessidade de considerar tarefas além do reconhecimento de objetos para entender o processamento visual no cérebro," disse Elder. "Esses modelos profundos tendem a usar 'atalhos' ao resolver tarefas complexas de reconhecimento. Embora esses atalhos possam funcionar em muitos casos, eles podem ser perigosos em algumas das aplicações de IA no mundo real em que estamos trabalhando atualmente com nossos parceiros do setor e do governo."

Problema por resolver

Uma das aplicações das redes neurais que preocupa os dois cientistas são os sistemas de segurança de trânsito e de visão artificial dos veículos autônomos: "Os objetos em uma cena de trânsito movimentado - os veículos, bicicletas e pedestres - obstruem uns aos outros e chegam aos olhos de um motorista como um amontoado de fragmentos desconectados," explica Elder.

O cérebro humano "desconstrói" esse emaranhado de informações visuais e consegue rapidamente distinguir um ciclista entrando rapidamente na via por detrás de outro carro.

Mas a inteligência artificial não consegue fazer isso, vendo apenas fragmentos isolados - um carro com um tronco humano no teto, neste exemplo - que não serão adequadamente identificados, eventualmente colocando em risco os usuários mais vulneráveis no trânsito.

De acordo com os pesquisadores, as modificações no treinamento e na arquitetura destinadas a tornar essas redes neurais convolucionais profundas mais parecidas com o cérebro não resultaram no processamento similar ao humano, e nenhuma das redes foi capaz de prever com precisão as avaliações humanas dos objetos.

"Nós especulamos que, para corresponder à sensibilidade configural humana, as redes devem ser treinadas para resolver uma gama mais ampla de tarefas de objetos, além do reconhecimento de categorias," observou Elder.

Inovação Tecnológica

Em destaque

Justiça Militar envia ao STF o inquérito dos coronéis golpistas

Publicado em 6 de janeiro de 2025 por Tribuna da Internet Facebook Twitter WhatsApp Email Coronéis pressionaram Freire Gomes a apoiar o golp...

Mais visitadas