A principal voz de IA da Meta analisa o que a verdadeira inteligência exige, e por que as máquinas ainda não estão à altura.

  • Categoria do post:Notícias

Em uma recente cúpula em Paris focada em políticas e avanços de IA, o chefe de inteligência artificial da Meta, Yann LeCun, compartilhou uma visão simplificada do que realmente significa ser inteligente. Enquanto muitas empresas empurram os limites com modelos de linguagem e ferramentas generativas, ele argumentou que os sistemas atuais estão perdendo os fundamentos que até mesmo animais comuns compreendem intuitivamente.

Na visão dele, quatro habilidades estão no cerne da verdadeira inteligência: entender o entorno físico, armazenar memórias duradouras, raciocinar em problemas e planejar com estrutura – especialmente quando os passos exigem hierarquia. Esses não são objetivos abstratos; são ferramentas de sobrevivência cotidianas na natureza.

A IA moderna, segundo ele, ainda não atende a esses requisitos. Em vez de desenvolver modelos que aprendam genuinamente como o mundo funciona, a maioria das empresas está adicionando partes extras para cobrir as fraquezas. Um computador pode aprender a descrever o que vê adicionando um módulo de visão separado. Ou pode buscar fatos em bancos de dados para simular a memória. Mas empilhar componentes em cima de sistemas baseados em texto, ele alertou, não replica como as mentes pensantes funcionam.

Ele acredita que a correção não virá de atualizações – virá de mudança de direção. Isso significa construir sistemas que pensam em termos de causa e efeito. Dê a uma máquina uma percepção do que está acontecendo agora, deixe-a imaginar tomar uma ação e treine-a para prever que mudanças essa ação poderia causar. Esse ciclo – observar, agir, prever – é como os seres vivos se adaptam.

Mas a vida não segue roteiros. Os eventos se desenrolam de maneiras imprevisíveis, com detalhes que frequentemente não importam. Então, em vez de tentar prever tudo, ele disse que a IA precisa aprender a abstração. Os humanos têm feito isso por séculos. A química, por exemplo, se tornou gerenciável quando os cientistas pararam de pensar em cada átomo e começaram a pensar em camadas – partículas, átomos, moléculas e, em seguida, materiais. Em cada nível, informações desnecessárias são filtradas.

Essa abordagem – aprendendo organizando o mundo em camadas usáveis – é a que a equipe da Meta está perseguindo agora. No início deste ano, a empresa lançou um modelo de pesquisa chamado V-JEPA. Ao contrário de ferramentas que tentam adivinhar cada pixel em uma imagem ou quadro em um vídeo, o V-JEPA foca nos padrões subjacentes. Ele aprende observando o que está faltando e descobrindo o que deveria estar ali, sem se distrair com detalhes que não têm significado.

A esperança a longo prazo é ensinar máquinas a pensarem menos como máquinas. Não apenas para responder com respostas plausíveis, mas para construir uma lógica interna silenciosa – um mapa do mundo que elas possam usar para raciocinar e planejar. Por enquanto, esse objetivo permanece fora de alcance. Mas se a inteligência pode ser decomposta em partes, a Meta parece determinada a construir as que faltam.