Um estudo recente mostrou que a inteligência artificial e as pessoas realmente enxergam os objetos de maneiras diferentes. Enquanto os humanos tendem a focar no que as coisas significam, a IA geralmente presta atenção em como os objetos parecem, sua forma, cor ou detalhes de superfície parecem guiar a atenção da IA. A pesquisa, realizada por cientistas do Instituto Max Planck de Ciências Cognitivas e Cerebrais Humanas, descobriu que mesmo quando a IA parece tomar decisões como os humanos, a maneira como ela chega lá pode ser completamente diferente. Essa tendência, descrita como um “viés visual” na IA, significa que as máquinas colocam muito mais peso em características visuais do que no que as coisas realmente são. Essa diferença é importante porque afeta o quanto podemos confiar na IA quando as tarefas parecem exigir compreensão semelhante à humana. Para explorar isso, a equipe estabeleceu uma comparação direta entre humanos e redes neurais profundas, usando uma grande tarefa de julgamento de imagens. Os participantes humanos viram grupos de três imagens e foram solicitados a escolher a que não se encaixava, uma maneira simples de ver como as pessoas naturalmente agrupam as coisas. Os mesmos conjuntos de imagens foram testados nas redes neurais profundas treinadas para reconhecer objetos. Ao tratar as redes como participantes humanos, os pesquisadores puderam investigar como ambos os sistemas classificam o mundo. Eles analisaram os padrões fundamentais por trás dessas escolhas, chamando-os de “dimensões”. Essas dimensões capturaram tanto como as coisas parecem quanto o que significam. As pessoas se concentraram principalmente no significado, mas a IA dependeu muito de aspectos visuais de nível superficial. À primeira vista, os padrões internos da IA pareciam bastante semelhantes aos encontrados nos humanos. Mas, quando a equipe olhou mais de perto, ficou claro que muitas dessas conexões eram superficiais. Às vezes, a IA agrupava animais junto com coisas que pareciam vagamente semelhantes, mas não tinham uma ligação real. Enquanto os humanos mantinham consistentemente os animais em seu próprio grupo, a IA frequentemente misturava objetos que compartilhavam simplesmente uma forma ou cor. A equipe realizou uma série de testes rigorosos para verificar se os padrões internos da IA realmente refletiam as propriedades que pareciam ou se apenas pareciam convincentes na superfície. Eles geraram novas imagens para ver quais a IA considerava melhores para coincidir com padrões específicos, removeram características das imagens para observar como as escolhas da IA mudavam e criaram mapas de calor para rastrear em quais partes de uma imagem a IA realmente se concentrou. Embora a IA tenha mantido algumas agrupamentos significativos dentro de seu sistema, estes apenas coincidiram aproximadamente com a maneira como os humanos entendem os objetos. Muitas vezes, a IA dava respostas que pareciam corretas, mas seu raciocínio era muito diferente, geralmente baseado em recursos de imagem simples em vez das categorias mais profundas que as pessoas usam. Os pesquisadores também verificaram se essas inconsistências internas seriam refletidas em escolhas reais. Ao remover padrões individuais dos modelos da IA e dos humanos, eles observaram como a tomada de decisão mudava. Os resultados mostraram que o foco da IA em características visuais desempenhava um grande papel em como ela agrupava as coisas. Mesmo quando humanos e IA escolhiam o mesmo objeto, frequentemente chegavam lá por razões completamente diferentes. O que destacou este estudo foi como ele vinculou diretamente o comportamento e o pensamento interno em ambos os sistemas. Estudos anteriores muitas vezes apenas olhavam se as pessoas e a IA se comportavam de maneira semelhante, mas não o que realmente moldava essas escolhas. Desta vez, os pesquisadores abriram os sistemas e observaram os fundamentos. As descobertas sugerem que os sistemas de IA, mesmo quando parecem agir como humanos, podem processar o mundo de uma maneira bastante separada do que as pessoas pensam. Isso levanta novas questões sobre se a IA realmente “entende” as categorias que parece reconhecer ou se é simplesmente extremamente boa em captar padrões de nível superficial. O estudo também oferece ferramentas úteis para pesquisas futuras. Os métodos utilizados aqui podem ajudar a desenvolver modelos de IA que se concentrem mais no significado, o que poderia torná-los mais previsíveis e mais alinhados com a forma como as pessoas tomam decisões. Ao lançar luz sobre essas diferenças ocultas, o estudo mostra que um dos grandes desafios da inteligência artificial é diminuir a lacuna entre parecer humano e realmente pensar como um.