Desdobramento de Consultas - Uma Abordagem Orientada por Dados para a Visibilidade na Busca por IA

Desdobramento de consultas: uma abordagem orientada por dados para a visibilidade na busca por IA

Esse texto vai ser uma tradução, análise e comentários Semânticos do fenomenal trabalho coletivo, organizado pelo Andrea Volpini “Query Fan-Out: A Data-Driven Approach to AI Search Visibility“.

O trabalho que gerou esse artigo e uma ferramenta incrível foi sendo construído através da análise de muitos profissionais e nos trouxe um conceito que eu percebo que vai ser muito importante para o futuro do SEO.

Segundo o post original:

“O Modo de IA do Google não processa apenas sua consulta — ele a divide em uma rede de sub consultas, espalhando-se por seus Grafos de Conhecimento e índice da web para gerar respostas ricas e sintetizadas.”

Eles lançaram uma ferramenta que ajuda a prever a próxima consulta de acompanhamento provável para o seu conteúdo publicado — para que você possa otimizar para como a IA realmente pensa.

Como funciona a busca do Google no modo IA?

Andrea nos esclarece que:

“A busca no Modo de IA não apenas processa sua consulta — ela a expande em múltiplas subconsultas, espalhando-se pelos grafos de conhecimento do Google e seu índice da web para sintetizar respostas abrangentes. Esse processo chamado “query fan-out” representa a mudança mais significativa no comportamento de busca desde a indexação mobile-first, mas parece que estamos todos voando às cegas, incapazes de medir o quão bem nosso conteúdo se desempenha diante dessa nova realidade.”

O artigo continua:

“Depois de revisar patentes fundamentais como a US 2024/0289407 A1 (Busca com chat com estado) e novos insights da WO2024064249A1 (Sistemas e métodos para geração de consultas baseadas em prompts para recuperação diversificada), esta última destacada pela análise de Michael King, e estudar os padrões de busca por IA por vários meses, atualizei nosso framework prático e a ferramenta Colab que o acompanha. O avanço não é apenas entender o query fan-out, é ser capaz de simular com mais precisão seus estágios iniciais e pontuar seu conteúdo em relação a ele.”

A partir daqui eu deixo vocês com o texto traduzido e vou fazer os meus comentários no final do artigo. Boa leitura:

A Realidade do Query Fan-Out: Além das Classificações Determinísticas

Quando alguém pergunta à IA do Google “Qual é a melhor estratégia de marketing sustentável para pequenas empresas de e-commerce?”, a IA não busca por essa frase exata. Em vez disso, ela decompõe a consulta em múltiplas subconsultas que variam com base no contexto do usuário:

  • O que torna uma estratégia de marketing sustentável?
  • Quais canais de marketing funcionam melhor para o e-commerce?
  • Quais são as restrições orçamentárias para pequenas empresas?
  • Como as práticas sustentáveis impactam a aquisição de clientes?
  • Quais são os estudos de caso de sucesso em marketing sustentável de e-commerce?

Mas aqui está o insight crítico do meu trabalho desde os dias do SGE (Search Generative Experience): essas perguntas de acompanhamento não são as mesmas para todos. Elas são profundamente contextuais, estocásticas e impossíveis de prever deterministicamente. O problema para os profissionais de marketing não é apenas otimizar para subconsultas — é aceitar que não há como “classificar” ou mesmo rastrear a visibilidade em termos tradicionais. O jogo mudou fundamentalmente.

Um Novo Framework: Prevendo Perguntas

As ferramentas de SEO tradicionais têm dificuldade com a natureza dinâmica do query fan-out. O que precisamos é de uma maneira de sondar como nosso conteúdo pode se sair quando uma IA desconstrói a intenção do usuário. Nosso simulador Colab atualizado agora adota uma abordagem mais nativa da IA para este desafio:

  • (Visão Futura) Função de Validação e Políticas de Recompensa: Embora a ferramenta atual simule e pontue, a visão de longo prazo continua sendo o desenvolvimento de funções de validação robustas — políticas de recompensa dentro do DSPy para fundamentar e melhorar as previsões de acompanhamentos contextuais reais com base nas interações do usuário e nos gráficos de conhecimento.
  • Compreensão de Entidades e Contexto com IA: Em vez de raspagem tradicional, a ferramenta aproveita o modelo Gemini do Google e a ferramenta url_context que simulam como o Modo de IA pode interpretar URLs. O Gemini identifica a entidade ontológica principal e extrai os principais trechos de conteúdo fundamentado que considera relevantes na página. Isso reflete mais de perto como os sistemas de busca por IA digerem o conteúdo: não analisando o HTML de cima a baixo, mas se baseando em trechos semanticamente ricos e dignos de citação.
  • Geração de Consultas Sintéticas com Cadeia de Pensamento: Informado pela entidade identificada pelo Gemini e guiado por princípios de patentes como a WO2024064249A1, o simulador usa um módulo de Cadeia de Pensamento (CoT) do DSPy com o Gemini. Este módulo CoT primeiro raciocina sobre os diferentes tipos de facetas de informação e tipos de consulta (Relacionada, Implícita, Comparativa, etc.) relevantes para sua entidade e, em seguida, gera um conjunto diversificado de consultas de fan-out sintéticas. Este é um passo além da simples expansão de palavras-chave, visando uma decomposição mais fundamentada.
  • Avaliação da Cobertura Semântica: Usando os trechos de conteúdo extraídos pelo Gemini (ou um resumo gerado pelo Gemini se os trechos diretos não estiverem disponíveis), avaliamos o quão bem as informações-chave da sua página cobrem essas consultas de fan-out geradas sinteticamente usando similaridade semântica (embeddings). O objetivo não é prever todas as consultas possíveis — é construir uma infraestrutura semântica que aumente nossa precisão na previsão da próxima pergunta provável com base no contexto do usuário.

Gianluca Fiorelli tem trabalhado nisso há anos, recomendando que recuperemos todos os refinamentos de consulta (filtro de Tópico, PAA, As pessoas também pesquisam, consultas de tags de pesquisa de imagens, etc.) que o Google apresenta para uma consulta.

Como o Chunking do Google Funciona — e Por Que é Importante

O Google não analisa o conteúdo como um todo. Em vez disso, ele segmenta os documentos em pedaços menores e significativos (chunks). Com base em nossa pesquisa, o Google parece usar uma estratégia híbrida que inclui:

  • Chunking de tamanho fixo: usado para ajustar o conteúdo aos limites do modelo, como o limite de 2048 tokens para o gemini-embedding-001.
  • Chunking recursivo: para dividir o conteúdo não estruturado com base em parágrafos → frases → palavras.
  • Chunking semântico: onde frases relacionadas são agrupadas.
  • Chunking ciente do layout: que segmenta o conteúdo com base na estrutura HTML (cabeçalhos, listas, tabelas) e é o padrão na Vertex AI Search via LayoutBasedChunkingConfig.

Entre estes, o chunking ciente do layout é o mais crucial para a ingestão. Ele se alinha com a forma como os documentos são estruturados visualmente, como os humanos os processam e como a IA do Google determina a relevância em nível de passagem.

Agora, antes de compartilhar como estamos planejando procurar por perguntas de acompanhamento, vamos revisar os princípios centrais por trás do framework.

O Framework Estratégico para Otimização de Busca por IA: 10 Princípios Centrais

Com base em testes e análises de conteúdo visível por IA bem-sucedido, estes são os princípios estratégicos que realmente fazem a diferença:

  1. Foque no Núcleo Ontológico, Não no Volume de Conteúdo: A mudança não é sobre produzir mais conteúdo — é sobre construir uma base semântica robusta. Seu núcleo ontológico (como introduzido por Tony Seal) é a representação estruturada do conhecimento essencial do domínio. É o que permite que os sistemas de IA gerem respostas dinâmicas e conscientes do contexto.
  2. Construa uma Arquitetura de Conteúdo Dinâmica e Conversacional: Como as perguntas de acompanhamento são contextuais e estocásticas, seu conteúdo deve ser conversacional e adaptável — não meramente estático ou exaustivo.
  3. Priorize Rigorosamente o E-E-A-T e os Dados Estruturados: O Google deixou claro: o E-E-A-T (Experiência, Expertise, Autoridade e Confiança) é fundamental para as respostas geradas por IA. Mas, além dos sinais de confiança tradicionais, você também precisa fornecer contexto semântico explícito por meio da marcação de esquema.
  4. Adapte-se a Consultas Conversacionais e Orientadas por Intenção: A IA se destaca na compreensão da linguagem natural — sua estratégia de conteúdo deve refletir isso, focando na intenção subjacente, não apenas em frases de palavras-chave.
  5. Desenvolva Modelos de Previsão para Acompanhamentos Contextuais: A cobertura universal não é o objetivo. Em vez de otimizar para consultas individuais, concentre-se na construção de dados — e, eventualmente, modelos — que possam prever perguntas de acompanhamento prováveis com base no contexto do usuário.
  6. Excele com a Visibilidade “Zero Clique” e “Baseada em Citação”: As métricas de sucesso estão mudando. Ser citado em respostas geradas por IA pode ser mais impactante do que os cliques tradicionais — especialmente para a autoridade e consideração da marca.
  7. Para o E-commerce, Foque em Dados Ricos de Produtos e Conteúdo Comparativo: A busca orientada por IA não apenas responde a consultas diretas — ela apoia os usuários em jornadas complexas de tomada de decisão.
  8. Monitore o Desempenho da Busca Paga e Adapte as Estratégias: As Visões Gerais de IA estão remodelando o cenário de busca — incluindo a visibilidade paga.
  9. Mantenha-se Fiel aos Seus Valores e Ouça Estrategicamente: À medida que a IA remodela como criamos, otimizamos e descobrimos conteúdo, manter-se fiel aos seus valores fundamentais é mais importante do que nunca.
  10. Experimente e Itere Continuamente: O cenário de busca por IA evolui rapidamente. Use ferramentas como nosso simulador de query fan-out para avaliar regularmente a visibilidade do seu conteúdo por IA e adaptar as estratégias com base nos dados reais de cobertura.

O Simulador: Entendendo a Prontidão do Seu Conteúdo para o Modo de IA

Entender o query fan-out é uma coisa — simular como seu conteúdo pode ser percebido e desconstruído por uma IA é o primeiro passo prático. Nosso notebook Colab atualizado visa fornecer essa visão inicial.

Este novo lançamento aprimora a simulação ao:

  • Aproveitar o Gemini para a Compreensão Inicial: Usa o Gemini do Google (por meio de sua capacidade de fundamentação semelhante a url_context ou análise direta) para identificar a entidade principal de sua URL e extrair trechos de conteúdo importantes da página.
  • Simulação Sofisticada de Query Fan-Out com DSPy CoT: Emprega um módulo de Cadeia de Pensamento (CoT) do DSPy alimentado pelo Gemini para gerar consultas de fan-out sintéticas.
  • Pontuação de Cobertura Semântica: Avalia o quão bem os trechos de conteúdo identificados pelo Gemini em sua URL cobrem essas diversas consultas sintéticas usando similaridade baseada em embeddings.

Pipeline Técnico: URL → Extração de Entidade → Query Fan-Out → Cobertura de Embedding → Pontuação de Visibilidade de IA

Embora prever cada acompanhamento contextual exato seja impossível, esta ferramenta ajuda você a entender a prontidão do seu conteúdo para um ambiente de busca orientado por IA que depende dessa decomposição.

Da Cobertura ao Contexto: O Verdadeiro Desafio

O notebook revela algo mais profundo do que as lacunas de cobertura — ele mostra a impossibilidade de otimização determinística em um mundo de busca orientado por IA. A maioria do conteúdo aborda apenas amostras de possíveis acompanhamentos, e isso não é um bug, é a característica.

Pronto para começar a construir sua base ontológica?

O simulador é seu primeiro passo para entender como os acompanhamentos contextuais funcionam — e por que o pensamento tradicional de SEO não se aplica mais.

Meus comentários sobre esse trabalho incrível:

A primeira coisa que eu quero contribuir é com a noção de facetas. Eu já falei do Shiyali Ramamrita Ranganathan aqui no Blog antes. Ele é a pessoa que definiu as cinco leis da Biblioteconomia e me inspirou a fazer as cinco leis do SEO.

Caso não conheça, ele foi um matemático e bibliotecário na Índia e é considerado o pai da biblioteconomia no país e um dos mais influentes do mundo. Ranganathan escreveu artigos e livros fundamentais para a organização e classificação de informação e desenvolveu bastante o conceito das facetas.

Segundo ele as facetas são componentes de um assunto composto, essenciais para a organização analítico-sintética do conhecimento. Elas são manifestações das cinco categorias fundamentais (personalidade, matéria, energia, espaço e tempo) e podem ser utilizadas para formar classes, termos e números.

As facetas permitem que um assunto complexo seja dividido em suas partes constituintes, facilitando a análise e a síntese do conhecimento. 

Achei muito curioso o número de facetas que o Andrea cita no texto ser o Gemini usou ser exatamente o número que o Ranganathan definiu.

Mas o que é importante aqui é a ideia por trás do Gemini usar o conceito de facetas quando gera uma resposta para nós.

Lá no início do texto que falo que o AI Overview tenta simular o nosso jeito de procurar informação e ainda é muito mais cuidadoso porque ele agora precisa gerar somente uma resposta.

Se você for ver como o Gemini cria as respostas na busca, ele gera uma resposta com múltiplas visões, cintando múltiplas fontes.

image

Na busca acima o Gemini na Visão geral criada por IA usa vários tipos de fontes de informação para gerar uma resposta bem completa, apesar de trazer algumas informações incorretas devido a informações incorretas numa das fontes.

Mas o que nos importa aqui é o fato que o Gemini faz esse movimento panorâmico em volta do assunto da nossa pergunta, tenta olhar por vários lados a questão, tenta entender todas as facetas, fazendo muitas perguntas, que estão semanticamente relacionadas.

Isso me permite afirmar: quando criamos qualquer conteúdo na web precisamos chegar o mais perto possível da completude do assunto. Abordar o máximo possível todos os sub assuntos do assunto principal.

Isso não é um fato novo para quem já faz projetos usando SEO Semântico. Nós já adotamos essa estratégia e já temos bons resultados em buscas, seja no algoritmo, seja no resumo por IA.

“Fan out”, lógica e ontologias

Fiz uma busca na base de conhecimento relacionada ao estudo de LLMs, Grafos de Conhecimento e Mecanismos de Buscas e encontrei uma relação interessante, um tanto técnica mas mesmo assim interessante.

A ideia de “expansão” ou “ramificação” de uma consulta a um banco, sistema ou base de dados, que o termo “fan-out” pode evocar no domínio de busca e recuperação de informações, é um tema central e recorrente em diversas técnicas que combinam LLMs, KGs e Search Engines mas eu não tinha ideia.

Vamos explorar isso em detalhes, começando pela menção direta que encontrei no livro Semantic Web Technologies – Trends and Research in Ontology-based Systems (2006) e, em seguida, expandindo para as implicações mais amplas que o “fan-out” em consultas (ou na geração de informações) tem para os seus campos de interesse.

O conceito de “Fan Out” nas ontologias

Nas mais de 30 fontes (entre livros, artigos técnicos e científicos) presentes na minha base de conhecimento, encontrei que o termo “fan out” vem sendo usado para descrever o comportamento de uma função de seleção em sistemas de raciocínio com ontologias inconsistentes.

Agora vamos entrar na parte mais complicada da coisa, se segura que vamos juntos.

  1. Nesse contexto, a função de seleção s começa com uma fórmula de consulta (f) como ponto de partida.
  2. Ela então “seleciona as fórmulas c que são diretamente relevantes a f como um conjunto de trabalho”.
  3. Se uma resposta satisfatória não é encontrada, a função “aumenta o grau de relevância em 1, adicionando assim mais fórmulas que são relevantes para o conjunto de trabalho atual”.

A fórmula então é essa:

s(Δ, f, k) = {c ∈ Δ | c é diretamente relevante para s(Δ, f, k – 1)}, para k > 1

Não sei se deu para perceber, mas essa abordagem leva a um comportamento de “fan out”, (que pode também ser entendido como ramificação ou expansão) da função de seleção:

  • A primeira seleção é o conjunto de todas as fórmulas diretamente relevantes à consulta;
  • Em seguida, todas as fórmulas que são diretamente relevantes a esse conjunto são selecionadas, e assim por diante.

Neste contexto a consulta inicial, se não for satisfeita na primeira procura, gera esse processo em cadeia de novas consultas relacionadas umas as outras.

Essa é uma maneira de estender progressivamente o conjunto de informações consideradas para resolver uma consulta, especialmente em cenários onde a informação pode estar distribuída ou ser ambígua, visando encontrar uma subteoria consistente a partir de uma ontologia inconsistente para encontrar respostas significativas.

No trabalho do Andrea é exatamente isso que eu apreendi, que o processo é disparado desta mesma maneira por conta da característica da resposta esperada.

Embora essa seja uma aplicação técnica específica, o processo do “fan out” em ontologias, ou seja, a ideia de expandir a busca para incluir informações relacionadas que não foram explicitamente solicitadas na consulta inicial, mas que são contextualmente relevantes, é encontrada em muitas das abordagens modernas em geração de informação.

Implicações mais amplas do “Fan Out” na Recuperação de Informação atual

No contexto de LLMs, Grafos de Conhecimento e Mecanismos de Busca, o “fan out” de uma consulta pode ser interpretado como a expansão da capacidade de um sistema de recuperar e interligar informações para responder a perguntas complexas, melhorar a relevância dos resultados ou lidar com a ambiguidade.

Vamos ver como isso se funciona?

Expansão e reescrita de Consultas (Query Expansion/Rewriting)

Um dos usos mais diretos de LLMs trabalhando em conjunto com Mecanismos de Busca é a capacidade de reescrever e expandir consultas para melhorar a recuperação de informações.

Os modelos podem analisar a intenção do usuário e gerar termos de consulta adicionais ou reformulações que cobrem um espectro mais amplo de informações relevantes, superando a “lacuna de vocabulário” entre o que o usuário digita e os termos contidos nos documentos.

E ai vemos uma quantidade interessantes de aplicações disso, como eu descrevo o que descobri, abaixo:

  • Para SEO: entender como os LLMs expandem ou reescrevem consultas é um incremento interessante no nossa capacidade de entidimento. Em vez de focar apenas em termos exatos, as estratégias de SEO podem considerar a relevância semântica e a cobertura de tópicos mais amplos que um modelo que usa essa estratégia pode inferir e expandir a partir de uma consulta inicial. Isso significa otimizar o conteúdo para um conjunto de termos semanticamente relacionados e suas variações. SEO Semântico, certo?
  • Em Sistemas de Informação: a reescrita de consultas aumenta a precisão e a abrangência dos resultados, especialmente para consultas ambíguas ou complexas. As LLMs podem gerar perguntas de clarificação para o usuário (ex: “Você quis dizer jaguar como animal ou como carro?”) com base nos resultados iniciais, e então usar a resposta do usuário para refinar a consulta, essencialmente “ramificando” a interação para maior clareza.
  • Para agentes de IA: agentes de IA podem usar modelos para reformular suas próprias “perguntas internas” ao buscar informações em uma base de dados ou na web, permitindo uma exploração mais eficaz e adaptativa.

Respostas a perguntas Multi-Hop (Multi-Hop Question Answering)

Perguntas complexas frequentemente exigem a combinação de informações de múltiplas fontes ou a execução de múltiplos passos de raciocínio, o que é um exemplo clássico de “fan out” informacional.

Isso é conhecido como “multi-hop question answering”.

Em vez de uma única busca, o sistema precisa “ramificar” sua estratégia de busca procurando por fatos interconectados. Mas para funcionar corretamente, é preciso ter cuidado com algumas coisas.

  • Desafios: as buscas simples por similaridade vetorial podem falhar em perguntas multi-hop, pois a informação necessária pode estar espalhada em vários documentos, ou os documentos mais relevantes podem conter informações repetidas, ignorando outros fatos cruciais.
  • Solução mistas Grafos e LLMs: Knowledge Graphs são particularmente eficazes para isso, pois permitem a modelagem de relações entre entidades. Uma consulta multi-hop pode ser decomposta em sub-perguntas, e o KG pode ser atravessado para conectar as informações necessárias. As LLMs podem ajudar na decomposição da pergunta e na formulação das sub-consultas para o KG. A capacidade dos LLMs de usar “cadeias de pensamento” (Chain-of-Thought) permite que eles separem as perguntas em múltiplas etapas, definam um plano e utilizem ferramentas externas (como KGs ou APIs de busca) para gerar uma resposta completa.

Geração Aumentada por Recuperação (Retrieval-Augmented Generation ou RAG)

O paradigma RAG é um exemplo básico de como os modelos realizam um “fan out” intencional em fontes de conhecimento externas. Em vez de depender apenas do conhecimento paramétrico “congelado” em seu treinamento, os LLMs “recuperam” informações relevantes de um corpus externo (seja através de um mecanismo de busca ou varrendo um Grafo de Conhecimento) e as utilizam como contexto para gerar as respostas.

Esse processo traz inúmeras vantagens, entre elas:

  • Redução de alucinações: essa abordagem mitiga o problema da “alucinação” (geração de informações falsas ou não verificáveis) ao aterrar a resposta em fatos recuperados. A capacidade de fazer um “fan out” em uma busca mais ampla de documentos que sejam relevantes permite que o modelo forneça respostas mais factuais e confiáveis.
  • Dados e diversidade: a qualidade e diversidade dos dados recuperados são um fator crucial para um bom desempenho do RAG. Considerando que o sistema pode “ramificar” a recuperação e incluir documentos com “ruído” ou informações similares, temos um desafio enorme para os LLMs em RAG. A modelagem de documentos longos e a compreensão precisa de conceitos são áreas de melhoria contínua para lidar com esse “fan out” de informações.

Traversal e extração de subgrafos em Grafos de Conhecimento

Em um KG, uma consulta pode “ramificar-se” ou “espalhar-se” (fan out) ao longo das conexões (arestas) para recuperar não apenas entidades diretas, mas também suas relações e vizinhos. Isso é o que torna os Grafos em ferramentas tão poderosas para a recuperação de informações contextuais e para a resposta a consultas mais complexas.

Novamente vamos detalhar algumas aplicações:

  • Recuperação detalhada: em vez de uma busca por palavras-chave que apenas encontra nós qualificados, uma consulta em um KG pode extrair subgrafos inteiros (Query Sub-graphs) que incluem não apenas o nó de interesse, mas também seus triplos e os triplos de seus vizinhos até uma certa profundidade. Isso permite obter informações associadas a múltiplos nós, eliminando redundâncias e aumentando a precisão.
  • Otimização do input para LLMs: frameworks como o Auto-KGQA selecionam “fragmentos menores do Grafo” para servir como contexto para o modelo, o que é uma forma de “fan out” controlado para reduzir o número de tokens de entrada para o LLM, mantendo o desempenho.
  • Agentes de IA e Grafos: a capacidade dos modelos de converter linguagem natural em linguagens de consulta de grafo (como SPARQL ou Cypher) permite que agentes de IA usem “fan out” em suas consultas em Grafos, aproveitando a estrutura para inferir e agregar dados, o que é difícil com texto não estruturado.

Refinamento de ontologias e escopo da busca

O conceito de “fan out” também pode ser aplicado à forma como navegamos e refinamos as ontologias para ajustar o escopo de uma busca. As ontologias fornecem uma estrutura hierárquica (ex: subClassOf) que pode ser utilizada para “expandir” (up-posting) ou “reduzir” (down-posting) o escopo de uma consulta.

Vamos novamente a alguns exemplos:

  • Up-posting e Down-posting: se uma consulta por “Oracle 8” não produz resultados, o sistema pode automaticamente “expandir” (up-posting) a consulta para um termo mais geral, como “database”, para encontrar mais informações. Inversamente, pode-se “reduzir” (down-posting) a consulta para termos mais específicos, como subconceitos de “Object-Oriented Programming Language”, para “Java”. Isso permite que os sistemas façam “fan out” ou “fan in” na consulta semântica ao longo da hierarquia do conhecimento.
  • Otimização da usabilidade: isso melhora a usabilidade, permitindo que os usuários encontrem termos apropriados na ontologia, mesmo que não os conheçam inicialmente.

Aplicações práticas

Umas das perguntas que eu ouvi esses dias sobre esse assunto é: conseguimos aplicar esses conceitos na produção de conteúdo? E nos projetos de SEO, fico me perguntando.

Vamos então a algumas ideias sobre como aplicar fan-out em nossos projetos?

  • Projetos de SEO: em vez de apenas otimizar para palavras-chave exatas, compreenda as “redes” semânticas que as LLMs criam ao expandir as consultas. Construa seu conteúdo de forma que cubra um espectro mais amplo de termos e conceitos relacionados, antecipando o “fan out” de consultas dos usuários. No meu livro SEO Semântico: Fluxo de Trabalho Semântico, eu já falo bastante sobre isso.
  • Sistemas de Informação: projetar sistemas que possam decompor consultas complexas e realizar buscas do tipo multi-hop em Grafos de Conhecimento. A integração de LLMs para a reescrita de consultas e a curadoria de fragmentos do Grafo (como no Auto-KGQA) otimizará o desempenho e a relevância das respostas, especialmente em bases de conhecimento específicas de domínio, como as que você pode encontrar em saúde ou finanças. A capacidade de fazer “fan out” em busca de informações relevantes (seja em texto ou KG) e de sumarizar resultados de forma navegável é um diferencial.
  • Criação de agentes de Inteligência Artificial: seus agentes de IA podem ser projetados para utilizar vários LLMs para planejar e executar buscas em etapas, “ramificando” para ferramentas externas (como Mecanismos de buscas para atualizar informações ou grafos para fatos incrementados por dados estruturados) quando o conhecimento interno é insuficiente ou pode levar a alucinações. A capacidade de fazer “fan out” para reunir evidências de múltiplas fontes e integrá-las de forma coerente é uma habilidade fundamental para agentes autônomos.

Em suma, o “Query Fan-Out“, engloba a ideia da expansão estratégica da busca, recuperação e geração de informações. Seja através da reescrita de consultas por LLMs, da exploração de relações em Knowledge Graphs ou da orquestração de buscas multi-hop, a capacidade de “ramificar” para obter informações mais ricas e contextuais é fundamental para construir sistemas de informação e agentes de IA verdadeiramente inteligentes e confiáveis.


Portanto, eu te convido a ler o artigo original do Andrea e testar a ferramenta dele. Siga as pessoas que são citadas aqui lá no Linkedin e vamos conversando sobre esse assunto, que parece complexo, mas que na verdade nos trouxe mais certeza de que estamos no caminho certo.

Vamos nos falando!

Referências:

Para mais informações sobre a evolução do Modo IA do Google e suas implicações para pesquisa e SEO, consulte:


Conteúdo traduzido do artigo original escrito por Andrea Volpini em 26 de maio de 2025.

Especialista SEO e defensor da Web Semântica. Publicitário e Bibliotecário em formação, com mais de 20 anos de experiência no Digital. Trabalho com Search Engine Optimization desde 2009, sempre buscando alinhar a experiência do usuário a estratégias como Marketing de Conteúdo, otimizando o investimento em SEO.Me especializei em Otimização e trabalhei em diversos ramos de atividade. Hoje pesquiso o uso da semântica e dados conectados na otimização de sites.Estou fazendo a minha segunda graduação, em Biblioteconomia e Ciência da Informação, com o objetivo de ampliar os meus conhecimentos em Indexação, classificação e categorização da Informação, o que está perfeitamente alinhado com o trabalho de SEO.Como Consultor SEO sou um profissional que trabalha a longo prazo com elementos de seu site, como conteúdos relevantes, e através do Marketing de conteúdo, para melhorar o seu tráfego orgânico.

Publicar comentário

Blog Semântico
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.