Dentro do mundo em constante evolução da inteligência artificial, uma das vozes mais influentes do Vale do Silício está se posicionando contra uma tendência crescente: máquinas comercializadas como companheiras emocionais. Reid Hoffman, que ajudou a lançar o LinkedIn e desde então se tornou um investidor líder em startups de IA, expressou séria preocupação esta semana sobre a crescente tentativa do setor de tecnologia em posicionar chatbots como amigos semelhantes aos seres humanos. Sua advertência foi feita durante uma conversa no podcast Possível, onde ele desafiou tanto o conceito quanto as consequências de chamar sistemas de IA de “amigos”. Embora várias empresas tenham começado a incorporar bots emocionalmente responsivos em plataformas populares, Hoffman argumentou que rotulá-los como amigos distorce o que realmente significa amizade – e diminui a compreensão das pessoas sobre relacionamentos reais. O momento de seus comentários coincide com um esforço mais amplo da Meta, liderada pelo CEO Mark Zuckerberg, para integrar IA conversacional em produtos como Instagram, WhatsApp, Facebook e até dispositivos vestíveis, como os óculos inteligentes Ray-Ban. Zuckerberg recentemente apresentou companheiros de IA como parte da solução para o aumento do isolamento social nos EUA, destacando dados que mostram que muitos americanos relatam ter pouquíssimas amizades próximas. Ainda assim, Hoffman contestou, dizendo que a linguagem em torno dessas ferramentas importa mais do que as empresas estão dispostas a admitir. Para ele, a questão não é se um chatbot pode ser emocionalmente envolvente – é se fingir que é um par engana as pessoas sobre o que uma conexão realmente envolve. Em sua opinião, uma verdadeira amizade carrega responsabilidade e profundidade mútuas. Um chatbot, por mais avançado que seja, não tem a capacidade de oferecer suporte em ambas as direções. Hoffman enfatizou que, quando um lado em um relacionamento não pode crescer, refletir ou responsabilizar o outro, chamá-lo de “amizade” mina a experiência humana. Em vez de eliminar o uso de IA em espaços pessoais, Hoffman prefere a comunicação clara e a definição de limites de design. Ele apontou implementações mais cautelosas, como o assistente Pi da Inflection AI, que se identifica como um “companheiro”, não um amigo, e incentiva ativamente os usuários a construir laços mais fortes com as pessoas em suas vidas. Enquanto as empresas de IA correm para criar ferramentas que pareçam emocionalmente inteligentes, Hoffman pediu normas em toda a indústria e maior transparência sobre como essas tecnologias são descritas e implantadas. Ele instou as empresas, mercados e governos a intervir antes que as definições sociais se tornem permanentemente borradas. Em sua opinião, as consequências vão além da linguagem de marketing. Ele acredita que ao confundir interações sintéticas com relacionamentos reais, a sociedade corre o risco de enfraquecer o tecido emocional que sustenta o crescimento pessoal e a conexão. Hoffman não está sozinho em expressar essa preocupação. No início deste mês, o CEO da OpenAI, Sam Altman, abordou uma questão semelhante durante o depoimento no Senado. Questionado se ele ficaria confortável com seu próprio filho desenvolvendo um forte vínculo com um chatbot de IA, Altman disse que não – argumentando que, enquanto os adultos podem buscar conforto nas máquinas, as crianças precisam de limites mais claros e salvaguardas mais fortes. À medida que as ferramentas de IA se tornam mais parecidas com a vida real e persistentes, os líderes do setor enfrentam uma nova pressão para definir linhas éticas. Para Hoffman, traçar essa linha na amizade é essencial – não apenas para a clareza, mas para proteger o que significa viver entre e depender de pessoas reais. Leia mais: O crescimento da receita da App Store da Apple triplicou desde 2019, agora em US$ 406 bilhões nos EUA.