Despliegue de consultas: un enfoque basado en datos para la visibilidad en la búsqueda con IA.
Este texto será una traducción, análisis y comentario semántico del fenomenal trabajo colectivo organizado por Andrea Volpini, " Query Fan-Out: A Data-Driven Approach to AI Search Visibility ".
El trabajo que generó este artículo y una herramienta increíble se construyó a través del análisis de muchos profesionales y nos aportó un concepto que creo que será muy importante para el futuro del SEO.
Para que puedas entender qué es mi comentario y qué es texto traducido del contenido original, siempre comentaré en un bloque preformateado, como este de aquí.
Según la publicación original:
“El modo de IA de Google no solo procesa tu consulta, sino que la descompone en una red de subconsultas, extendiéndolas a través de sus gráficos de conocimiento e índice web para generar respuestas ricas y sintetizadas.”
Lanzaron una herramienta que ayuda a predecir la siguiente consulta de seguimiento más probable para tu contenido publicado, para que puedas optimizarlo en función de cómo piensa realmente la IA.
He estado probando esta herramienta en mi trabajo diario y les recomiendo encarecidamente que hagan lo mismo. Funciona con Google Colab y, con un poco de conocimiento y atención, podrán usarla en sus proyectos.
¿Cómo funciona la búsqueda de Google en modo IA?
Andrea nos explica que:
“La búsqueda impulsada por IA no solo procesa tu consulta, sino que la expande en múltiples subconsultas, extendiéndolas por los gráficos de conocimiento de Google y su índice web para sintetizar respuestas completas. Este proceso, llamado “ difusión ”, representa el cambio más significativo en el comportamiento de búsqueda desde la indexación prioritaria para móviles, pero parece que todos estamos a ciegas, incapaces de evaluar el rendimiento de nuestro contenido en esta nueva realidad.”
Aquí quiero invitarte, lector de este texto, a prestar mucha atención. El cambio de una búsqueda mediada por un algoritmo que generaba una lista de 10 enlaces azules a lo que entonces llamábamos "posición 0" ya fue radical, pero nada se compara con lo que estamos viendo con AI Overview.
Según lo que nos cuenta Andrea, Géminis simula nuestro comportamiento de búsqueda y se muestra mucho más selectivo al prepararse para responder a nuestra pregunta. Y es totalmente comprensible. Una cosa es que nos den una lista de 10 publicaciones y nos deleguen la responsabilidad, y otra muy distinta que respondan a la pregunta siendo la única fuente de la respuesta.
El artículo continúa:
Tras revisar patentes fundamentales como la US 2024/0289407 A1 (Búsqueda en chat con estado) y las nuevas perspectivas de la WO2024064249A1 (Sistemas y métodos para generar consultas basadas en mensajes para una recuperación diversificada), esta última destacada por el análisis de Michael King, y estudiar los patrones de búsqueda de IA durante varios meses, he actualizado nuestro marco práctico y la herramienta Colab que lo acompaña. El avance no reside solo en comprender la ramificación , sino en poder simular con mayor precisión sus etapas iniciales y evaluar el contenido en función de ella.
Desde aquí les dejo el texto traducido y añadiré mis comentarios al final del artículo. ¡Que disfruten la lectura!
La realidad del abanico de consultas: más allá de las clasificaciones deterministas
Cuando alguien le pregunta a la IA de Google: "¿Cuál es la mejor estrategia de marketing sostenible para pequeñas empresas de comercio electrónico?", la IA no busca esa frase exacta. En cambio, desglosa la consulta en múltiples subconsultas que varían según el contexto del usuario:
- ¿Qué hace que una estrategia de marketing sea sostenible?
- ¿Qué canales de marketing funcionan mejor para el comercio electrónico?
- ¿Cuáles son las limitaciones presupuestarias para las pequeñas empresas?
- ¿Cómo influyen las prácticas sostenibles en la captación de clientes?
- ¿Cuáles son algunos casos de éxito en marketing de comercio electrónico sostenible?
Pero he aquí la conclusión fundamental de mi trabajo desde los tiempos de SGE (Experiencia Generativa de Búsqueda): estas preguntas de seguimiento no son las mismas para todos. Son profundamente contextuales, estocásticas e imposibles de predecir de forma determinista. El problema para los profesionales del marketing no es solo optimizar las subconsultas, sino aceptar que no hay forma de "clasificar" ni siquiera de medir la visibilidad con términos tradicionales. El panorama ha cambiado radicalmente.
Un nuevo marco: Predicción de preguntas
Las herramientas SEO tradicionales tienen dificultades con la naturaleza dinámica de la ramificación de las consultas . Necesitamos una forma de analizar el rendimiento de nuestro contenido cuando la IA desglosa la intención del usuario. Nuestro simulador Colab actualizado adopta ahora un enfoque más nativo de la IA para abordar este desafío.
- (Visión de futuro) Función de validación y políticas de recompensa: Si bien la herramienta actual simula y califica, la visión a largo plazo sigue siendo el desarrollo de funciones de validación robustas (políticas de recompensa dentro de DSPy) para fundamentar y mejorar las predicciones de seguimientos contextuales reales basados en las interacciones del usuario y los gráficos de conocimiento.
- Comprensión de entidades y contexto con IA: En lugar del scraping tradicional, la herramienta utiliza el modelo Gemini de Google y la herramienta url_context, que simulan cómo el Modo IA podría interpretar las URL. Gemini identifica la entidad ontológica principal y extrae los fragmentos clave de contenido bien fundamentado que considera relevantes en la página. Esto refleja con mayor precisión cómo los sistemas de búsqueda de IA procesan el contenido: no analizando el HTML de principio a fin, sino centrándose en fragmentos semánticamente ricos y citables.
- Generación de consultas sintéticas con Cadena de Pensamiento: Basándose en la entidad identificada por Gemini y guiándose por principios de patentes como WO2024064249A1, el simulador utiliza un módulo de Cadena de Pensamiento (CoT) de DSPy con Gemini. Este módulo CoT primero analiza los diferentes tipos de facetas de información y tipos de consulta (relacionadas, implícitas, comparativas, etc.) relevantes para su entidad y luego genera un conjunto diverso de de ramificación . Esto representa un paso más allá de la simple expansión de palabras clave, buscando una descomposición más fundamentada.
- Evaluación de la cobertura semántica: Mediante fragmentos de contenido extraídos por Gemini (o un resumen generado por Gemini si no se dispone de fragmentos directos), evaluamos la cobertura de la información clave de tu página con respecto a las consultas , utilizando similitud semántica (incrustaciones). El objetivo no es predecir todas las consultas posibles, sino construir una infraestructura semántica que aumente nuestra precisión al predecir la siguiente pregunta probable según el contexto del usuario.
Gianluca Fiorelli lleva años trabajando en esto, recomendando que recuperemos todos los refinamientos de consulta (filtro de temas, PAA, búsqueda de "Otros usuarios también", consultas de etiquetas de búsqueda de imágenes, etc.) que Google presenta para una consulta.
Cómo funciona la segmentación de Google y por qué es importante
Google no analiza el contenido en su totalidad. En cambio, segmenta los documentos en fragmentos más pequeños y relevantes . Según nuestra investigación, Google parece utilizar una estrategia híbrida que incluye:
- Fragmentación de tamaño fijo: se utiliza para ajustar el contenido a los límites de la plantilla, como el límite de 2048 tokens para gemini-embedding-001.
- Segmentación recursiva: dividir el contenido no estructurado en función de párrafos → oraciones → palabras.
- Agrupamiento semántico: donde las frases relacionadas se agrupan.
- Segmentación adaptada al diseño: Esta segmentación se basa en la estructura HTML (encabezados, listas, tablas) y es la opción predeterminada en Vertex AI Search a través de LayoutBasedChunkingConfig.
Entre estas, la segmentación basada en el diseño es la más crucial para la ingesta. Se alinea con la forma en que los documentos están estructurados visualmente, cómo los procesan los humanos y cómo la IA de Google determina la relevancia en la etapa de procesamiento.
Ahora bien, antes de compartir cómo planeamos buscar preguntas de seguimiento, repasemos los principios básicos que sustentan este marco.
Marco estratégico para la optimización de búsquedas con IA: 10 principios básicos
Basándonos en pruebas y análisis de contenido visibles mediante IA, estos son los principios estratégicos que realmente marcan la diferencia:
- Céntrese en el núcleo ontológico, no en la cantidad de contenido: El cambio no consiste en producir más contenido, sino en construir una base semántica sólida. Su núcleo ontológico (como lo introdujo Tony Seal) es la representación estructurada del conocimiento esencial del dominio. Es lo que permite a los sistemas de IA generar respuestas dinámicas y contextualizadas.
- Crea una arquitectura de contenido dinámica y conversacional: Dado que las preguntas de seguimiento son contextuales y estocásticas, su contenido debe ser conversacional y adaptable, no meramente estático o exhaustivo.
- Prioriza rigurosamente EEAT y los datos estructurados: Google lo ha dejado claro: EEAT (Experiencia, Autoridad y Confianza) es fundamental para las respuestas generadas por IA. Pero, además de las señales de confianza tradicionales, también necesitas proporcionar un contexto semántico explícito mediante el marcado de esquema.
- Adáptese a las consultas conversacionales y basadas en la intención: la IA sobresale en la comprensión del lenguaje natural; su estrategia de contenido debe reflejar esto, centrándose en la intención subyacente, no solo en las frases clave.
- Desarrollar modelos predictivos para seguimientos contextuales: La cobertura universal no es el objetivo. En lugar de optimizar para consultas individuales, concéntrese en crear datos —y, eventualmente, modelos— que puedan predecir posibles preguntas de seguimiento según el contexto del usuario.
- Destaca en visibilidad sin clics y basada en citas: Las métricas de éxito están cambiando. Ser citado en respuestas generadas por IA puede tener mayor impacto que los clics tradicionales, especialmente para la autoridad y la consideración de la marca.
- Para el comercio electrónico, concéntrese en datos de producto enriquecidos y contenido comparativo: la búsqueda impulsada por IA no solo responde a consultas sencillas, sino que también ayuda a los usuarios a lo largo de procesos de toma de decisiones complejos.
- Monitorea el rendimiento de la búsqueda pagada y adapta tus estrategias: las reseñas de IA están transformando el panorama de las búsquedas, incluyendo la visibilidad pagada.
- Mantente fiel a tus valores y escucha estratégicamente: A medida que la IA transforma la forma en que creamos, optimizamos y descubrimos contenido, ser fiel a tus valores fundamentales es más importante que nunca.
- Experimenta e itera continuamente: El panorama de las búsquedas con IA evoluciona rápidamente. Utiliza herramientas como nuestro de difusión de consultas para evaluar periódicamente la visibilidad de tu contenido para la IA y adapta tus estrategias en función de los datos de alcance reales.
El simulador: Comprender la preparación de su contenido para el modo de IA
Entender la ramificación de las consultas es importante; simular cómo la IA podría percibir y analizar tu contenido es el primer paso práctico. Nuestro cuaderno de Colab actualizado busca brindar esa perspectiva inicial.
Esta nueva versión mejora la simulación mediante:
- Aprovechamiento de Gemini para la comprensión inicial: Utiliza Gemini de Google (a través de su razonamiento similar a url_context o sus capacidades de análisis directo) para identificar la entidad principal en su URL y extraer fragmentos de contenido importantes de la página.
- Simulación sofisticada de fan-out de consultas con DSPy CoT: Emplea un módulo DSPy Thought Chain (CoT) impulsado por Gemini para generar fan-out .
- Puntuación de cobertura semántica: Evalúa en qué medida los fragmentos de contenido identificados por Gemini en su URL cubren estas diversas consultas sintéticas utilizando la similitud basada en incrustaciones.
Proceso técnico: URL → Extracción de entidades → Distribución de consultas → Cobertura de incrustación → Puntuación de visibilidad de IA
Si bien es imposible predecir cada coincidencia contextual exacta, esta herramienta le ayuda a comprender la preparación de su contenido para un entorno de búsqueda impulsado por IA que se basa en esta descomposición.
De la cobertura al contexto: El verdadero desafío
El cuaderno revela algo más profundo que simples lagunas de cobertura: muestra la imposibilidad de una optimización determinista en un mundo de búsquedas impulsado por IA. La mayor parte del contenido solo aborda ejemplos de posibles seguimientos, y eso no es un error, sino una característica.
¿Listo para comenzar a construir tu base ontológica?
El simulador es tu primer paso para comprender cómo funciona el seguimiento contextual y por qué el pensamiento SEO tradicional ya no se aplica.
Acceda al simulador de abanico de consultas (versión 3) , una herramienta gratuita para medir la visibilidad de búsqueda de IA de su contenido [se ejecuta en Google Colab].

Mis comentarios sobre esta increíble obra:
Lo primero que quiero aportar es el concepto de facetas. Ya he hablado antes en este blog sobre Shiyali Ramamrita Ranganathan . Él fue quien definió las cinco leyes de la Biblioteconomía y me inspiró a crear las cinco leyes del SEO.
Si no lo conocen, fue un matemático y bibliotecario indio, considerado el padre de la biblioteconomía en el país y uno de los más influyentes del mundo. Ranganathan escribió artículos y libros fundamentales sobre la organización y clasificación de la información, y desarrolló enormemente el concepto de facetas.
Según él, las facetas son componentes de un sujeto compuesto, esenciales para la organización analítico-sintética del conocimiento. Son manifestaciones de las cinco categorías fundamentales (personalidad, materia, energía, espacio y tiempo) y pueden utilizarse para formar clases, términos y números.
Las facetas permiten dividir un tema complejo en sus partes constituyentes, facilitando el análisis y la síntesis del conocimiento.
Me pareció muy curioso que el número de facetas que Andrea menciona en el texto sea exactamente el mismo número que utilizó Géminis, según la definición de Ranganathan.
Pero lo importante aquí es la idea detrás de Géminis, que utiliza el concepto de facetas al generar una respuesta para nosotros.
Anteriormente en el texto mencioné que AI Overview intenta simular nuestra forma de buscar información, y es aún más cuidadoso porque ahora solo necesita generar una respuesta.
Si analizas cómo Gemini genera los resultados de búsqueda, verás que crea una respuesta con múltiples perspectivas, citando múltiples fuentes.

En la búsqueda anterior, la descripción general generada por IA de Gemini utiliza varios tipos de fuentes de información para generar una respuesta bastante completa, aunque puede contener información incorrecta debido a errores en una de las fuentes.
Pero lo que nos importa aquí es el hecho de que Géminis realiza este movimiento panorámico en torno al tema de nuestra pregunta, tratando de analizar el asunto desde varios ángulos, tratando de comprender todas sus facetas, formulando muchas preguntas que están relacionadas semánticamente.
Esto me permite afirmar: al crear cualquier contenido web, debemos abordar el tema en su totalidad. Debemos tratar tantos subtemas del tema principal como sea posible.
Esto no es nada nuevo para quienes ya trabajan en proyectos con SEO semántico. Nosotros ya hemos adoptado esta estrategia y estamos viendo buenos resultados en las búsquedas, tanto en el algoritmo como en los resúmenes generados por IA.
Lógica de ramificación y ontologías.
Realicé una búsqueda en la base de conocimientos relacionada con el estudio de LLM, gráficos de conocimiento y motores de búsqueda y encontré una relación interesante, algo técnica pero interesante al fin y al cabo.
La idea de "expansión" o "ramificación" de una consulta a un banco, sistema o base de datos, que el término " fan-out " puede evocar en el ámbito de la búsqueda y recuperación de información, es un tema central y recurrente en diversas técnicas que combinan LLM, KG y motores de búsqueda, pero no tenía ni idea al respecto.
Exploremos esto en detalle, comenzando con la mención directa que encontré en el libro Semantic Web Technologies – Trends and Research in Ontology-based Systems (2006) , y luego ampliando las implicaciones más amplias que el " fan-out " en las consultas (o generación de información) tiene para sus campos de interés.
El concepto de "Fan Out" en ontologías.
En las más de 30 fuentes (incluidos libros, artículos técnicos y científicos) de mi base de conocimientos, encontré que el término "fan out" se ha utilizado para describir el comportamiento de una función de selección en sistemas de razonamiento con ontologías inconsistentes .
Ahora vamos a llegar a la parte más complicada, agárrense fuerte, lo vamos a hacer juntos.
- En este contexto, la función de selección
scomienza con una fórmula de consulta (f) como punto de partida. - Luego, “selecciona las fórmulas
cque son directamente relevantes parafcomo conjunto de trabajo”. - Si no se encuentra una respuesta satisfactoria, la función “aumenta el nivel de relevancia en 1, agregando así más fórmulas que son relevantes para el conjunto de trabajo actual”.
La fórmula es entonces la siguiente:
s(Δ, f, k) = {c ∈ Δ | c es directamente relevante para s(Δ, f, k – 1)} , para k > 1No sé si lo has notado, pero este enfoque conduce a un comportamiento de "abanico" (que también puede entenderse como ramificación o expansión) de la función de selección:
- La primera selección es el conjunto de todas las fórmulas directamente relevantes para la consulta;
- A continuación, se seleccionan todas las fórmulas que son directamente relevantes para ese conjunto, y así sucesivamente.
En este contexto, si la consulta inicial no se satisface en el primer intento, se genera una reacción en cadena de nuevas consultas relacionadas entre sí.
Esta es una forma de ampliar progresivamente el conjunto de información considerada para resolver una consulta, especialmente en escenarios donde la información puede estar distribuida o ser ambigua, con el objetivo de encontrar una subteoría consistente a partir de una ontología inconsistente para hallar respuestas significativas.
En el trabajo de Andrea, eso es precisamente lo que aprendí: el proceso se desencadena de esta manera debido a la naturaleza de la respuesta esperada.
Aunque se trata de una aplicación técnica específica, el proceso de "expansión" en ontologías —es decir, la idea de ampliar la búsqueda para incluir información relacionada que no se solicitó explícitamente en la consulta inicial pero que es relevante desde el contexto— se encuentra en muchos enfoques modernos de generación de información.
Implicaciones más amplias de "Fan Out" en la recuperación de información actual
En el contexto de los LLM, los gráficos de conocimiento y los motores de búsqueda, la "difusión" de una consulta puede interpretarse como la expansión de la capacidad de un sistema para recuperar y vincular información para responder preguntas complejas, mejorar la relevancia de los resultados o manejar la ambigüedad .
¿Veamos cómo funciona esto?
Expansión y reescritura de consultas
Uno de los usos más directos de los LLM que trabajan conjuntamente con los motores de búsqueda es la capacidad de reescribir y ampliar las consultas para mejorar la recuperación de información.
Los modelos pueden analizar la intención del usuario y generar términos de consulta adicionales o reformulaciones que abarquen un espectro más amplio de información relevante, cerrando la "brecha de vocabulario" entre lo que escribe el usuario y los términos contenidos en los documentos.
Y luego vemos una serie de aplicaciones interesantes de esto, como describo a continuación:
- Para el SEO: comprender cómo los modelos de lenguaje de aprendizaje (LLM) expanden o reescriben las consultas supone un avance interesante. En lugar de centrarse únicamente en los términos exactos, las estrategias de SEO pueden considerar la relevancia semántica y la cobertura de temas más amplios que un modelo que utilice esta estrategia puede inferir y expandir a partir de una consulta inicial. Esto implica optimizar el contenido para un conjunto de términos semánticamente relacionados y sus variaciones. ¿SEO semántico, verdad?
- En sistemas de información, la reescritura de consultas aumenta la precisión y la exhaustividad de los resultados, sobre todo en consultas ambiguas o complejas. Los sistemas de gestión de aprendizaje (LLM) pueden generar preguntas aclaratorias para el usuario (p. ej., "¿Se refería a 'jaguar' como animal o como automóvil?") a partir de los resultados iniciales, y luego utilizar la respuesta del usuario para refinar la consulta, lo que esencialmente ramifica la interacción para una mayor claridad.
- Para los agentes de IA: Los agentes de IA pueden usar modelos para reformular sus propias "preguntas internas" al buscar información en una base de datos o en la web, lo que permite una exploración más eficaz y adaptativa.
Respuesta a preguntas de múltiples saltos
Las preguntas complejas a menudo requieren combinar información de múltiples fuentes o realizar múltiples pasos de razonamiento, lo cual es un ejemplo clásico de "difusión" informativa.
Esto se conoce como "pregunta y respuesta de múltiples saltos" .
En lugar de una búsqueda única, el sistema necesita ampliar su estrategia de búsqueda buscando hechos interconectados. Pero para que funcione correctamente, hay que tener en cuenta algunos aspectos.
- Desafíos: Las búsquedas simples de similitud vectorial pueden fallar en consultas de múltiples saltos porque la información necesaria puede estar dispersa en varios documentos, o los documentos más relevantes pueden contener información repetida, ignorando otros datos cruciales.
- Soluciones mixtas: Grafos y LLM: Los grafos de conocimiento son especialmente eficaces, ya que permiten modelar las relaciones entre entidades. Una consulta compleja se puede descomponer en subpreguntas, y el grafo de conocimiento se puede recorrer para conectar la información necesaria. Los LLM ayudan a descomponer la pregunta y a formular subconsultas para el grafo de conocimiento. Su capacidad para utilizar "cadenas de pensamiento" les permite separar las preguntas en múltiples pasos, definir un plan y utilizar herramientas externas (como grafos de conocimiento o API de búsqueda) para generar una respuesta completa.
Generación aumentada por recuperación (RAG)
El paradigma RAG es un ejemplo básico de cómo los modelos amplían intencionalmente sus fuentes de conocimiento externas. En lugar de basarse únicamente en el conocimiento paramétrico «congelado» en su entrenamiento, los LLM recuperan información relevante de un corpus externo (ya sea mediante un motor de búsqueda o explorando un grafo de conocimiento) y la utilizan como contexto para generar respuestas.
Este proceso ofrece numerosas ventajas, entre ellas:
- Reducción de sesgos: Este enfoque mitiga el problema de los sesgos (generar información falsa o no verificable) al basar la respuesta en hechos comprobados. La capacidad de ampliar la búsqueda de documentos relevantes permite que el modelo proporcione respuestas más objetivas y fiables.
- Datos y diversidad: la calidad y la diversidad de los datos recuperados son factores cruciales para un buen rendimiento de la recuperación de datos. Dado que el sistema puede ramificar la recuperación e incluir documentos con información irrelevante o similar, nos enfrentamos a un gran desafío para los modelos de aprendizaje profundo (LLM) en la recuperación de datos. El modelado de documentos extensos y la comprensión precisa de conceptos son áreas de mejora continua para abordar esta dispersión de la información.
Recorrido y extracción de subgrafos en grafos de conocimiento
En un marco de generación de conocimiento (KG), una consulta puede ramificarse o expandirse a lo largo de las conexiones (aristas) para recuperar no solo entidades directas, sino también sus relaciones y vecinos. Esto es lo que convierte a los grafos en herramientas tan potentes para recuperar información contextual y responder a consultas más complejas.
Detallemos nuevamente algunas aplicaciones:
- Recuperación detallada: En lugar de una búsqueda por palabras clave que solo encuentra nodos relevantes, una consulta en un grafo de conocimiento puede extraer subgrafos completos (subgrafos de consulta) que incluyen no solo el nodo de interés, sino también sus tripletas y las tripletas de sus vecinos hasta cierta profundidad. Esto permite obtener información asociada a múltiples nodos, eliminando redundancias y aumentando la precisión.
- Optimización de entradas para LLM: marcos como Auto-KGQA seleccionan "fragmentos más pequeños del gráfico" para que sirvan de contexto para el modelo, lo que es una forma de "difusión" controlada para reducir el número de tokens de entrada para el LLM manteniendo el rendimiento.
- Agentes de IA y grafos: La capacidad de los modelos para convertir el lenguaje natural en lenguajes de consulta de grafos (como SPARQL o Cypher) permite a los agentes de IA utilizar la "expansión" en sus consultas de grafos, aprovechando la estructura para inferir y agregar datos, lo cual es difícil con texto no estructurado.
Refinamiento de la ontología y alcance de la búsqueda
El concepto de " despliegue " también se puede aplicar a cómo navegamos y refinamos las ontologías para ajustar el alcance de una búsqueda. Las ontologías proporcionan una estructura jerárquica (p. ej., subClassOf ) que se puede usar para "expandir" ( aumentar o reducir ) el alcance de una consulta.
Veamos algunos ejemplos más:
- Ampliación y reducción de la consulta: Si una consulta de «Oracle 8» no produce resultados, el sistema puede ampliarla automáticamente a un término más general, como «base de datos», para encontrar más información. Por el contrario, la consulta puede reducirse a términos más específicos, como subconceptos de «Lenguaje de Programación Orientada a Objetos» para «Java». Esto permite a los sistemas ampliar o reducir la consulta semántica a lo largo de la jerarquía del conocimiento.
- Optimización de la usabilidad: Esto mejora la usabilidad al permitir a los usuarios encontrar términos apropiados en la ontología, incluso si inicialmente no están familiarizados con ellos.
Aplicaciones prácticas
Una de las preguntas que escuché el otro día sobre este tema es: ¿podemos aplicar estos conceptos a la producción de contenido? Y me pregunto si eso se aplica a los proyectos de SEO.
Así pues, veamos algunas ideas sobre cómo aplicar de fan-out a nuestros proyectos.
- Proyectos de SEO: en lugar de optimizar solo para palabras clave específicas, comprenda las "redes" semánticas que crean los lenguajes de búsqueda al expandir las consultas. Cree contenido que abarque un espectro más amplio de términos y conceptos relacionados, anticipando la diversificación de las consultas de los usuarios. En mi libro SEO Semántico: Flujo de Trabajo Semántico , profundizo en este tema.
- Sistemas de Información: Diseñar sistemas capaces de descomponer consultas complejas y realizar búsquedas multietapa en grafos de conocimiento. La integración de modelos de lenguaje local (LLM) para la reescritura de consultas y la curación de fragmentos de grafos (como en Auto-KGQA ) optimizará el rendimiento y la relevancia de las respuestas, especialmente en bases de conocimiento específicas de dominio, como las de salud o finanzas. La capacidad de expandir la búsqueda de información relevante (ya sea en texto o en grafo de conocimiento) y resumir los resultados de forma navegable es un factor diferenciador clave.
- Creación de agentes de inteligencia artificial: Sus agentes de IA pueden diseñarse para utilizar múltiples modelos de aprendizaje automático (MLA) para planificar y ejecutar búsquedas paso a paso, recurriendo a herramientas externas (como motores de búsqueda para actualizar información o gráficos con datos estructurados) cuando el conocimiento interno sea insuficiente o pueda generar conclusiones erróneas. La capacidad de ampliar la búsqueda para recopilar evidencia de múltiples fuentes e integrarla de forma coherente es una habilidad fundamental para los agentes autónomos.
En resumen, la "expansión Query Fan-Out ) engloba la idea de ampliar estratégicamente la búsqueda, la recuperación y la generación de información . Ya sea mediante la reescritura de consultas por parte de LLM, la exploración de relaciones en grafos de conocimiento o la orquestación de búsquedas multihop, la capacidad de "ramificar" para obtener información más rica y contextual es fundamental para construir sistemas de información y agentes de IA verdaderamente inteligentes y fiables.
Por lo tanto, les invito a leer el artículo original de Andrea y a probar su herramienta. Sigan a las personas mencionadas aquí en LinkedIn y hablemos sobre este tema, que parece complejo, pero que en realidad nos ha dado mayor certeza de que vamos por buen camino.
¡Mantengámonos en contacto!
Referencias:
Para obtener más información sobre la evolución del modo de IA de Google y sus implicaciones para la búsqueda y el SEO, consulte:
- Artículo de Gianluca Fiorelli titulado « Por qué el modo IA reemplazará la búsqueda tradicional como interfaz predeterminada de Google» en I Love SEO
- Análisis del enfoque Query Fan-Out Aleyda Solís
- La perspectiva de Dennis Goedegebuure los SEO como especialistas en marketing natos en la era de la IA
- El análisis en profundidad de Michael King patente del Modo de IA
- El documento oficial de patente para “Búsqueda con chat con estado” (US20240289407A1)
- La patente WO2024064249A1 “Sistemas y métodos para la generación de consultas basadas en mensajes para la recuperación diversa”
- DAVIES, John; STUDER, Rudi; WARREN, Paul (Org.). Tecnologías de la Web Semántica : Tendencias e investigación en sistemas basados en ontologías. [S. l.]: Wiley, 2006.
Contenido traducido del artículo original escrito por Andrea Volpini el 26 de mayo de 2025.





Publicar comentario