Tocando Agora: ...

Alimentos e objetos falantes tomam as redes e viram alerta para desinformação

Publicada em: 21/02/2026 05:56 -

Com personagens ranzinzas e tom bem-humorado, conteúdos de inteligência artificial mostram comidas e objetos "falando" sobre conservação e uso; especialistas alertam para risco de informações sem fonte ou base científica

 

"Ei, sua jumenta, não jogue minha casca fora". Em tom de bronca, um abacaxi falante aparece em um dos vídeos que viralizaram sobre alimentos que dão dicas de saúde e cotidiano. Criados com o uso de Inteligência Artificial (IA), os conteúdos mostram alimentos e objetos dando orientações sobre como devem ser usados ou armazenados. 

 

Nas publicações, bananas pedem para que as cascas virem adubo, pães reclamam da geladeira por ficarem "duros e sem graça", morangos imploram para não serem guardados molhados, o macarrão, o brócolis, a cenoura, alho, salsicha e até objetos de higiene como toalhas, privadas e esponjas ganham voz. Em comum, os vídeos trazem personagens com expressões humanas, geralmente ranzinzas, que ensinam supostas dicas domésticas ou alimentares, quase sempre sem citar a origem das informações: "Faça isso, evite aquilo".

 

No TikTok, hashtags como #alimentosfalantes e #objetosfalantes já reúnem centenas de publicações e perfis dedicados exclusivamente a esse formato acumulam milhares de seguidores. Parte dos vídeos foi produzida com ferramentas como o Veo 3, IA do Google capaz de gerar imagens ultrarrealistas. O criador escreve um roteiro descrevendo o objeto, a emoção e a mensagem que deseja transmitir, e a tecnologia transforma o texto em vídeo.

Criatividade não significa informação de qualidade

O problema, segundo especialistas ouvidos pelo Correio, é que qualquer pessoa pode inserir informações sem respaldo técnico, inclusive orientações sobre saúde, alimentação ou comportamento. Para o professor doutor Romes Heriberto de Araújo, do curso de Engenharia de Software do Centro Universitário UNICEPLAC e pesquisador em cibernética e Inteligência Artificial, o sucesso desse tipo de conteúdo tem explicação psicológica e tecnológica.

"Esses vídeos viralizam porque combinam estranhamento cognitivo, antropomorfização e formatos curtos altamente compatíveis com os algoritmos das plataformas. O fato de um objeto inanimado falar quebra expectativas, prende a atenção rapidamente e aumenta retenção e compartilhamento", explica. 

 

Segundo ele, o cérebro humano tende a atribuir emoções e intenções a qualquer coisa que demonstre características humanas. "O fato de um objeto inanimado falar e demonstrar personalidade quebra expectativas, prende a atenção rapidamente e aumenta retenção e compartilhamento, que são métricas essenciais para a viralização em redes como TikTok, Reels e Shorts. Essa estranheza causa uma recompensa de estímulos cerebrais que faz com que as pessoas se interessem no tema", disse.

O fenômeno psicológico por trás disso é a antropomorfização, tendência humana de atribuir intencionalidade, emoção e consciência a objetos. "O cérebro tende a atribuir características humanas a qualquer coisa que 'fale'. Objetos com voz reduzem a distância crítica. Eles parecem amigáveis, inofensivos e confiáveis. Além disso, remetem a desenhos animados, fábulas e histórias da infância, o que gera uma sensação positiva e aumenta o engajamento, fazendo com que as pessoas se interessem no tema", afirma.

"Tudo é pensado para que o objeto deixe de ser 'coisa' e passe a ser 'personagem', e personagens geram vínculo."

Romes explica que o alerta surge quando o tom lúdico mascara simplificações perigosas. “O limite é ultrapassado quando há dicas médicas sem base científica, ausência de contexto, fonte ou aviso de que o conteúdo é humorístico ou quando o conteúdo induz comportamentos sem qualificação profissional. O humor é legítimo enquanto não prescreve nem substitui especialistas”, diz o professor.

Desinformação simpática

O risco maior não está apenas na mentira explícita, mas na chamada “meia verdade carismática” ou "desinformação simpática". “Erros ditos com carisma tendem a ser aceitos sem questionamento. Existe também a dissolução da autoria, muitas vezes não se sabe quem criou o conteúdo, e a escalada de deepfakes. Hoje são objetos, amanhã podem ser médicos ou autoridades”, alerta.

Outro fator que contribui para a credibilidade desses vídeos é o chamado “efeito halo”. “Se algo parece bem produzido, didático e seguro, o cérebro associa automaticamente a competência e confiabilidade. A IA fala com segurança, sem hesitação, o que cria uma autoridade performática baseada na estética, não no conhecimento”, explica.

O formato curto também favorece a propagação de informações imprecisas. “Conteúdos rápidos não deixam espaço para nuances ou exceções. O usuário consome e compartilha antes de refletir. É um ambiente ideal para informações erradas altamente transmissíveis”, completa.

Para diferenciar conteúdo educativo de estratégia comercial ou desinformação, Romes orienta observar sinais como presença de fontes, reconhecimento de limites e ausência de promessas milagrosas. “Se o vídeo resolve tudo em 30 segundos e parece bom demais, desconfie. Vídeos de objetos falantes com IA não são o problema em si. O problema surge quando forma, carisma e tecnologia substituem critério, fonte e responsabilidade.”

 

Correio braziliense

Compartilhe:
COMENTÁRIOS
Comentário enviado com sucesso!
Carregando...