{"id":9091,"date":"2025-09-26T23:49:55","date_gmt":"2025-09-26T20:49:55","guid":{"rendered":"https:\/\/semantico.com.br\/blog\/?p=9091"},"modified":"2026-03-25T17:36:44","modified_gmt":"2026-03-25T14:36:44","slug":"o-que-o-cerebro-de-uma-ia-me-ensinou","status":"publish","type":"post","link":"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/","title":{"rendered":"O que o c\u00e9rebro de uma IA me ensinou"},"content":{"rendered":"\n<p>Este \u00e9 um primeiro artigo de uma s\u00e9rie de escritos que eu estou fazendo com a ajuda de um dos meus agentes criados com a mesma estrat\u00e9gia usada no <a href=\"https:\/\/semantico.com.br\/agente-mais-semantico.html\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>agente+Sem\u00e2ntico<\/strong><\/a>, que \u00e9 o servi\u00e7o de cria\u00e7\u00e3o dos agentes especializados em pesquisa e cocria\u00e7\u00e3o de <a class=\"wl-entity-page-link\" title=\"Content\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/conteudo\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/conteudo\" >conte\u00fado<\/a> que a <a class=\"wl-entity-page-link\"  href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/semantico-seo-2\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/semantico-seo-2\" >Sem\u00e2ntico SEO<\/a> est\u00e1 oferecendo para todos aqueles que querem criar conte\u00fado de verdade, com a ajuda de IA. <\/p>\n\n\n\n<figure class=\"wp-block-image alignwide size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1408\" height=\"708\" src=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/topo-agente-mais-semantico.webp\" alt=\"CTA Agente+Sem\u00e2ntico\" class=\"wp-image-9094\" title=\"\" srcset=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/topo-agente-mais-semantico.webp 1408w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/topo-agente-mais-semantico-600x302.webp 600w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/topo-agente-mais-semantico-768x386.webp 768w\" sizes=\"auto, (max-width: 1408px) 100vw, 1408px\" \/><\/figure>\n\n\n\n<div class=\"wp-block-columns are-vertically-aligned-center is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-vertically-aligned-center is-layout-flow wp-block-column-is-layout-flow\">\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button has-custom-width wp-block-button__width-100\"><a class=\"wp-block-button__link has-white-color has-text-color has-background wp-element-button\" href=\"https:\/\/semantico.com.br\/contato.html\" style=\"background-color:#590050\" target=\"_blank\" rel=\"noreferrer noopener\">Entre em Contato<\/a><\/div>\n<\/div>\n<\/div>\n<\/div>\n\n\n\n<p>Neste artigo eu e o meu agente investigamos uma s\u00e9rie de v\u00eddeos do canal &#8220;<a href=\"https:\/\/www.youtube.com\/c\/3blue1brown\" data-type=\"link\" data-id=\"https:\/\/www.youtube.com\/c\/3blue1brown\" target=\"_blank\" rel=\"noreferrer noopener\">3Blue1Brown<\/a>&#8220;, que fora muito importantes para mim na minha busca por entender como os LLMs funcionam. A s\u00e9rie de v\u00eddesos chamada Neural networks nos oferece uma vis\u00e3o bem profunda sobre os mecanismos centrais de redes neurais e modelos de linguagem grande (LLMs), como o GPT-3.<\/p>\n\n\n\n<p>Uma parte significativa do conte\u00fado dos v\u00eddeos se concentra-se na estrutura e na opera\u00e7\u00e3o dos Transformers, detalhando o mecanismo de Aten\u00e7\u00e3o, que \u00e9 um processo que permite que vetores de palavras ajustem seus significados com base no contexto, por meio de matrizes de peso, <a class=\"wl-entity-page-link\" title=\"Pesquisa\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/pesquisa\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/pesquisa\">consulta<\/a>, chave e valor. Quando eu entendi como isso funciona, me abriu um mundo de <a class=\"wl-entity-page-link\" title=\"Compreens\u00e3o\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/compreensao\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/compreensao\">entendimento<\/a> e possibilidades de como interagir com esses modelos para obter <a class=\"wl-entity-page-link\" title=\"contexto\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/informacao\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/informacao;http:\/\/data.wordlift.io\/wl0221\/entity\/otimizacao_para_motores_de_busca\">informa\u00e7\u00e3o<\/a>, <a class=\"wl-entity-page-link\" title=\"Aprendizagem\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/aprendizagem\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/aprendizagem\">aprender<\/a>, gerar conte\u00fado e compartilhar conhecimento com eles.<\/p>\n\n\n\n<p><strong>E essa fagulha foi de onde surgiu o agente+Sem\u00e2ntico e essa s\u00e9rie de artigos.<\/strong><\/p>\n\n\n\n<p>Neste primeiro texto eu comecei perguntando ao modelo sobre os conceitos centrais dos mecanismos de aten\u00e7\u00e3o do Transformer, e depois de algumas intera\u00e7\u00f5es resolvi focar no mecanismo de ajuste progressivo das incorpora\u00e7\u00f5es e no significado contextual mais rico que esse processo gera. Eu sei, parece complicado, e realmente \u00e9, mas eu vou tentar facilitar as coisas.<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Conte\u00fados<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabela de conte\u00fado\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#um_mecanismo_de_resposta_que_nao_tem_respostas_prontas\" >Um mecanismo de resposta que n\u00e3o tem respostas prontas?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#meus_6_achados_surpreendentes\" >Meus 6 achados surpreendentes<\/a><ul class='ez-toc-list-level-3' ><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no1_uma_palavra_nao_tem_um_significado_ela_tem_um_ponto_de_partida\" >Achado n\u00ba1: uma palavra n\u00e3o tem um significado, ela tem um ponto de partida<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no2_os_modelos_fazem_perguntas_e_encontram_respostas_o_tempo_todo\" >Achado n\u00ba2: os modelos fazem perguntas e encontram respostas o tempo todo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no3_%e2%80%9csignificado%e2%80%9d_e_apenas_uma_direcao_no_espaco\" >Achado n\u00ba3: &#8220;significado&#8221; \u00e9 apenas uma dire\u00e7\u00e3o no espa\u00e7o<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no4_um_fato_pode_ser_um_simples_interruptor_de_%e2%80%9cligadesliga%e2%80%9d\" >Achado n\u00ba4: um fato pode ser um simples interruptor de &#8220;Liga\/Desliga&#8221;<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no5_o_modelo_armazena_mais_ideias_do_que_tem_espaco\" >Achado n\u00ba5: o modelo armazena mais ideias do que tem espa\u00e7o<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#achado_no6_aprender_e_literalmente_apenas_rolar_morro_abaixo\" >Achado n\u00ba6: aprender \u00e9, literalmente, apenas rolar morro abaixo<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/#entao_fica_a_pergunta_o_que_um_llm_entende_por_%e2%80%9centender%e2%80%9d\" >Ent\u00e3o fica a pergunta: o que um LLM entende por &#8220;entender&#8221;?<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"um_mecanismo_de_resposta_que_nao_tem_respostas_prontas\"><\/span>Um mecanismo de resposta que n\u00e3o tem respostas prontas?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Se voc\u00ea j\u00e1 interagiu com algum chatbot nos \u00faltimos 2 anos pode ter tido a sensa\u00e7\u00e3o que aquilo parece m\u00e1gica. Voc\u00ea faz uma pergunta complexa e, em segundos, recebe uma resposta coerente e criativa. N\u00e3o que ela esteja sempre certa, mas existe ali um texto que faz <a class=\"wl-entity-page-link\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/sentido\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/sentido\">sentido<\/a>.<\/p>\n\n\n\n<p>Podemos ficar tentados em imaginar que o que foi gerado veio de uma confus\u00e3o quase inintelig\u00edvel de palavras, mas na verdade \u00e9 muito mais coerente do que isso. Existe uma mec\u00e2nica interna nos Modelos de Linguagem de Grande Escala (LLMs), na realidade ele \u00e9 um sistema com princ\u00edpios que ecoam conceitos da ci\u00eancia da informa\u00e7\u00e3o, puxando a sardinha para o meu lado, mas n\u00e3o s\u00f3 de l\u00e1.<\/p>\n\n\n\n<p>Mas para conseguir entender como tudo isso funciona, tentar de alguma forma relacionar com o nosso trabalho de SEO, eu precisei segurar a minha curiosidade e ir aos poucos. Durante a s\u00e9rie de perguntas e respostas com o meu agente, recebi que podemos separar em seis partes o nosso entendimento. Isso dito, trago para voc\u00ea as minhas anota\u00e7\u00f5es do que eu achei.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"meus_6_achados_surpreendentes\"><\/span>Meus 6 achados surpreendentes<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no1_uma_palavra_nao_tem_um_significado_ela_tem_um_ponto_de_partida\"><\/span>Achado n\u00ba1: uma palavra n\u00e3o tem <em>um<\/em> significado, ela tem um ponto de partida<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n<div class=\"wp-block-image is-style-default\">\n<figure class=\"alignleft size-thumbnail is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"300\" height=\"300\" src=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/07\/vetor-3d-300x300.jpg\" alt=\"word embedding 3d vector space\" class=\"wp-image-8773\" style=\"object-fit:cover;width:216px;height:auto\" title=\"\"><\/figure>\n<\/div>\n\n\n<p>No in\u00edcio do processo Transformer, cada palavra (ou &#8220;<a class=\"wl-entity-page-link\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/token\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/token\">token<\/a>&#8220;) do texto que estamos que seja gerado recebe um vetor num\u00e9rico, o que \u00e9 uma longa lista de n\u00fameros que recebem o nome de &#8220;<a class=\"wl-entity-page-link\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/embedding\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/embedding-8781\">embedding<\/a>&#8220;. J\u00e1 ouviu essa palavra, n\u00e9? Ent\u00e3o, \u00e9 isso o que ela significa. Mas o achado aqui \u00e9 saber que este embedding inicial \u00e9 id\u00eantico para uma mesma palavra, independentemente do contexto em que ela aparece. Voc\u00ea sabia disso? Eu n\u00e3o.<\/p>\n\n\n\n<p>Um exemplo que o meu agente meu deu foi esse:<\/p>\n\n\n\n<p><em>Pense na palavra &#8220;toupeira&#8221;. Nas frases &#8220;a toupeira verdadeira americana&#8221; e &#8220;fa\u00e7a uma bi\u00f3psia da toupeira&#8221;, a palavra tem dois significados semanticamente distintos. No entanto, no primeiro passo do modelo, o vetor num\u00e9rico para &#8220;toupeira&#8221; \u00e9 exatamente o mesmo nos dois casos.<\/em><\/p>\n\n\n\n<p>Ent\u00e3o posso entender que o embedding inicial n\u00e3o \u00e9 uma defini\u00e7\u00e3o; ele \u00e9 apenas um ponto de partida <strong>gen\u00e9rico<\/strong> em um espa\u00e7o gigantesco de significados. Isso me lembrou muito o conceito de campo sem\u00e2ntico e eu fiquei viajando no tamanho dos campos que os modelos criam para cada palavra que v\u00e3o gerar.<\/p>\n\n\n\n<p>Mas o verdadeiro trabalho de um Transformer \u00e9 <em>ajustar progressivamente<\/em> esses embeddings, camada ap\u00f3s camada, movendo-os neste espa\u00e7o de alta dimens\u00e3o para que incorporem um significado contextual rico, espec\u00edfico para aquela frase.<\/p>\n\n\n\n<p>Isso mudou completamente a minha percep\u00e7\u00e3o deste processo. J\u00e1 que o modelo n\u00e3o &#8220;procura&#8221; uma defini\u00e7\u00e3o em um dicion\u00e1rio interno entendi que ele <em>constr\u00f3i<\/em> o significado em tempo real, em um processo de refinamento cont\u00ednuo.<\/p>\n\n\n\n<p>Outro exemplo que o agente me deu foi ainda mais impactante:<\/p>\n\n\n\n<p><em>Imagine que, no final de um longo romance de mist\u00e9rio que termina com &#8220;portanto, o assassino foi&#8230;&#8221;, o vetor final para a palavra &#8220;foi&#8221; precisa ter absorvido e codificado toda a informa\u00e7\u00e3o relevante da hist\u00f3ria para ser capaz de prever corretamente o nome do assassino.<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no2_os_modelos_fazem_perguntas_e_encontram_respostas_o_tempo_todo\"><\/span>Achado n\u00ba2: os modelos fazem perguntas e encontram respostas o tempo todo<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Eu descobri que os LLMs falam sozinho, como n\u00f3s humanos. Existe um mecanismo de &#8220;aten\u00e7\u00e3o&#8221;, que \u00e9 o cora\u00e7\u00e3o de um Transformer, e ele pode ser entendido como um di\u00e1logo interno constante. Lembra que conforme o Transforme trabalha as palavras v\u00e3o ganhando significados mais espec\u00edficos, certo? Ent\u00e3o, cada palavra gera um vetor de &#8220;Consulta&#8221; (<a class=\"wl-entity-page-link\" title=\"Consultas ou Buscas\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/consultas\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/consultas\">Query<\/a>), que \u00e9 um processo que faz uma pergunta sobre o resto da frase.<\/p>\n\n\n\n<p>Vamos de novo a um exemplo:<\/p>\n\n\n\n<p><em>Imagine um substantivo como &#8220;criatura&#8221;, a busca por seu significado pode gerar uma <strong>consulta<\/strong> que, em ess\u00eancia, faz uma pergunta como essa: &#8220;ei, h\u00e1 algum adjetivo por aqui que me descreva?&#8221;.<\/em><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft size-thumbnail\"><img loading=\"lazy\" decoding=\"async\" width=\"300\" height=\"300\" src=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/criatura-azul-fofa-300x300.jpeg\" alt=\"Criatura azul e fofa\" class=\"wp-image-9098\" title=\"\" srcset=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/criatura-azul-fofa-300x300.jpeg 300w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/criatura-azul-fofa-600x600.jpeg 600w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/criatura-azul-fofa-768x768.jpeg 768w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/criatura-azul-fofa.jpeg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/figure>\n<\/div>\n\n\n<p>Outras palavras na frase, por sua vez, geram vetores &#8220;Chave&#8221; (Key), que servem como respostas potenciais. Os adjetivos &#8220;fofa&#8221; e &#8220;azul&#8221; teriam chaves que &#8220;respondem&#8221; afirmativamente \u00e0 pergunta da &#8220;criatura&#8221;. <\/p>\n\n\n\n<p>A for\u00e7a da correspond\u00eancia entre a <strong>Consulta<\/strong> de uma palavra e a <strong>Chave<\/strong> de outra (medida por uma opera\u00e7\u00e3o matem\u00e1tica chamada <em>produto escalar<\/em>) determina o qu\u00e3o relevante uma palavra \u00e9 para a outra naquele contexto espec\u00edfico.<\/p>\n\n\n\n<p>Uma vez que a relev\u00e2ncia \u00e9 estabelecida, a palavra &#8220;relevante&#8221; envia seu &#8220;Valor&#8221; (Value), um pacote de informa\u00e7\u00f5es, para atualizar o embedding da palavra que fez a pergunta. Sim, eu tamb\u00e9m fiquei confuso nessa parte. <\/p>\n\n\n\n<p>Mas, a &#8220;aten\u00e7\u00e3o&#8221; n\u00e3o \u00e9 um processo estranho a n\u00f3s, j\u00e1 que os modelos emulam o nosso jeito de pensar. Imagine que essa conversa acontece entre duas \u00e1reas do seu c\u00e9rebro. A parte da linguagem precisa reproduzir em fala o que a outra pensa. Elas trocam <a class=\"wl-entity-page-link\" title=\"Dado\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/dado-2\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/dado-2\">dados<\/a> entre elas em tempo real. Assim que a parte que precisa falar encontra o que precisa dizer a frase vai ser dita. <\/p>\n\n\n\n<p>Esse \u00e9 um processo din\u00e2mico onde as palavras fazem perguntas umas as outras, e quando encontram as respostas mais relevantes, trocam informa\u00e7\u00f5es para construir um significado contextualizado.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no3_%e2%80%9csignificado%e2%80%9d_e_apenas_uma_direcao_no_espaco\"><\/span>Achado n\u00ba3: &#8220;significado&#8221; \u00e9 apenas uma dire\u00e7\u00e3o no espa\u00e7o<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Isso torceu a minha mente, desde a primeira vez que ouvi falar disso. Como assim significado \u00e9 uma dire\u00e7\u00e3o num espa\u00e7o? E tem mais: multidimensional!<\/p>\n\n\n\n<p>Mas vamos com calma. Pense que os embeddings das palavras n\u00e3o s\u00e3o apenas listas de n\u00fameros aleat\u00f3rios; eles existem em um espa\u00e7o vetorial de alt\u00edssima dimens\u00e3o (12.288 dimens\u00f5es no GPT-3 e GPT-4 com estimativas que sugerem cerca de 1,5 trilh\u00e3o). O mais fascinante \u00e9 que as dire\u00e7\u00f5es neste espa\u00e7o correspondem a conceitos e significados sem\u00e2nticos.<\/p>\n\n\n\n<p>Vamos usar a imagem abaixo com base de imagina\u00e7\u00e3o. Veja que ela n\u00e3o tem todas as dimens\u00f5es, est\u00e1 em um plano e usa outras duas. Cada seta colorida dessas \u00e9 um poss\u00edvel significado para uma palavra. Os modelos usam esses vetores para calcular os poss\u00edveis significados que falamos no achado anterior.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1408\" height=\"768\" src=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/07\/vetor-3d2.jpg\" alt=\"word embedding 3d vector space\" class=\"wp-image-8772\" title=\"\" srcset=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/07\/vetor-3d2.jpg 1408w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/07\/vetor-3d2-600x327.jpg 600w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/07\/vetor-3d2-768x419.jpg 768w\" sizes=\"auto, (max-width: 1408px) 100vw, 1408px\" \/><\/figure>\n\n\n\n<p>Mas vamos a um exemplo que o meu agente me deu:<\/p>\n\n\n\n<p><em>O exemplo cl\u00e1ssico \u00e9 a &#8220;aritm\u00e9tica vetorial&#8221; com palavras. Descobriu-se que a dire\u00e7\u00e3o no espa\u00e7o que vai do vetor de &#8220;homem&#8221; para o de &#8220;mulher&#8221; \u00e9 muito semelhante \u00e0 dire\u00e7\u00e3o que vai de &#8220;rei&#8221; para &#8220;rainha&#8221;. Conceitualmente, isso pode ser expresso como: <code>vetor(rei) - vetor(homem) + vetor(mulher) \u2248 vetor(rainha)<\/code>. Isso demonstra que o modelo, durante o treinamento, aprendeu a codificar um conceito abstrato como &#8220;g\u00eanero&#8221; como uma dire\u00e7\u00e3o geom\u00e9trica espec\u00edfica.<\/em><\/p>\n\n\n\n<p>Esse conceito \u00e9 muito complicado de explicar em palavras, por isso eu vou recomendar esse v\u00eddeo para voc\u00ea. Foi com ele que eu finalmente aprendi isso:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"Attention in transformers, step-by-step | Deep Learning Chapter 6\" width=\"640\" height=\"360\" src=\"https:\/\/www.youtube.com\/embed\/eMlx5fFNoYc?feature=oembed&#038;enablejsapi=1&#038;origin=https:\/\/semantico.com.br\/blog\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Mas a ideia mais importante que quero lhe passar \u00e9 como as dire\u00e7\u00f5es neste espa\u00e7o de alta dimens\u00e3o de todas as incorpora\u00e7\u00f5es poss\u00edveis podem corresponder ao significado sem\u00e2ntico.<\/p>\n\n\n\n<p>A profundidade disso \u00e9 fazer a cabe\u00e7a girar sem parar, vamos comigo!<\/p>\n\n\n\n<p>Conceitos n\u00e3o s\u00e3o armazenados em um dicion\u00e1rio, mas como <strong>rela\u00e7\u00f5es geom\u00e9tricas<\/strong>. Para quem vem da Ci\u00eancia da Informa\u00e7\u00e3o, isso \u00e9 um eco fascinante dos pilares da organiza\u00e7\u00e3o do conhecimento, como <a class=\"wl-entity-page-link\" title=\"Taxonomias\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/taxonomia__trashed\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/taxonomia__trashed\">taxonomia<\/a> e <a class=\"wl-entity-page-link\" title=\"Ontologia (ci\u00eancia da computa\u00e7\u00e3o)\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/ontologia-ciencia-da-computacao\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/ontologia-ciencia-da-computacao;http:\/\/data.wordlift.io\/wl0221\/entity\/ontologia_ciencia_da_computacao\">ontologia<\/a>, s\u00f3 que aqui a estrutura emerge de forma puramente matem\u00e1tica, sem qualquer curadoria humana. Isso tem for\u00e7as e fraquezas.<\/p>\n\n\n\n<p>Por isso que o uso de ferramentas como <a class=\"wl-entity-page-link\" title=\"grafo\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/teoria-dos-grafos\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/teoria-dos-grafos\">Grafos<\/a> de Conhecimento e Ontologias como orientadores dos modelos tem mostrado resultados t\u00e3o animadores: eles s\u00e3o como orientadores pr\u00e9vios para que os modelos n\u00e3o tenham que conversar tanto antes de encontrar os significados mais relevantes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no4_um_fato_pode_ser_um_simples_interruptor_de_%e2%80%9cligadesliga%e2%80%9d\"><\/span>Achado n\u00ba4: um fato pode ser um simples interruptor de &#8220;Liga\/Desliga&#8221;<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Umas das dezenas de perguntas que eu fiz ao meu agente foi sobre se os modelos armazenavam essas conclus\u00f5es sobre os melhores significados das palavras em algum lugar. Se eu fa\u00e7o uma pergunta tipo essa: Michael Jordan joga basquete?<\/p>\n\n\n\n<p>Onde ser\u00e1 que um LLM armazena esses fatos concretos? Descobri que as pesquisas mais recentes sugerem que esses fatos &#8220;moram&#8221; nos blocos da <a class=\"wl-entity-page-link\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/rede-neural\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/rede-neural\">rede neural<\/a> chamados de Perceptrons Multicamadas (MLPs). E a forma como eles fazem isso \u00e9 muito simples.<\/p>\n\n\n\n<p>Vou, de novo, transcrever o exemplo que eu recebi:<\/p>\n\n\n\n<p><em>Imagine que uma das &#8220;linhas&#8221; da primeira matriz de um MLP foi treinada especificamente para detectar a presen\u00e7a simult\u00e2nea dos embeddings de &#8220;<strong>Michael<\/strong>&#8221; E &#8220;<strong>Jordan<\/strong>&#8221; em um vetor de entrada. Se ambos os conceitos estiverem presentes e alinhados com essa linha, um &#8220;neur\u00f4nio&#8221; espec\u00edfico \u00e9 ativado (seu valor se torna positivo). Se n\u00e3o, ele permanece inativo (valor zero). Essencialmente, ele funciona como uma porta l\u00f3gica &#8220;E&#8221;, que s\u00f3 dispara um sinal de &#8220;verdadeiro&#8221; quando ambas as condi\u00e7\u00f5es s\u00e3o atendidas.<\/em><\/p>\n\n\n\n<p>\u00c9 como se fosse um interruptor el\u00e9trico, que quando tem o contato em ambos os lados, liga uma luz.<\/p>\n\n\n\n<p>E o que acontece quando esse neur\u00f4nio dispara \u00e9 ainda mais interessante. Imagine uma &#8220;coluna&#8221; correspondente na segunda matriz (<em>imaginei uma planilha no excell para ficar mais f\u00e1cil<\/em>) do MLP, que por sua vez foi treinada para representar a dire\u00e7\u00e3o do conceito &#8220;basquete&#8221;. Quandos os embeddings s\u00e3o criados (lembra: aquela linha gigante de n\u00fameros), essa informa\u00e7\u00e3o \u00e9 adicionada ao vetor original.<\/p>\n\n\n\n<p>O resultado dessa intera\u00e7\u00e3o \u00e9 que agora, ao passar por esse bloco, o embedding que representava &#8220;Michael Jordan&#8221; agora tamb\u00e9m cont\u00e9m a informa\u00e7\u00e3o &#8220;basquete&#8221;. Como se agregasse a entidade Michael Jordan o atributo &#8220;jogador de basquete&#8221;, ganhando contexto.<\/p>\n\n\n\n<p>Essa \u00e9 uma mec\u00e2nica contraintuitiva para mim, mas \u00e9 ao mesmo tempo brilhante. Algo do mundo real (uma entidade) \u00e9 decomposto em uma opera\u00e7\u00e3o quase mec\u00e2nica: um gatilho condicional que, quando ativado, adiciona um novo vetor de significado ao fluxo de informa\u00e7\u00e3o. Isso acontecendo em milissegundos.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no5_o_modelo_armazena_mais_ideias_do_que_tem_espaco\"><\/span>Achado n\u00ba5: o modelo armazena mais ideias do que tem espa\u00e7o<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Aqui est\u00e1 algo que desafia a minha intui\u00e7\u00e3o tridimensional: em um espa\u00e7o de <code><em>n<\/em><\/code> dimens\u00f5es, eu penso que s\u00f3 posso armazenar <code><em>n<\/em><\/code> ideias ou caracter\u00edsticas independentes (ou seja, perpendiculares entre si). Se eu tenho um mundo de 1000 dimens\u00f5es, s\u00f3 posso armazenar 1000 ideias, diz a minha mente. Mas n\u00e3o \u00e9 assim que funciona.<\/p>\n\n\n\n<p>Isso \u00e9 verdade em nosso mundo de 3 dimens\u00f5es, mas essa regra \u00e9 quebrada em dimens\u00f5es muito, muito altas.<\/p>\n\n\n\n<p>Esse fen\u00f4meno \u00e9 chamado de &#8220;superposi\u00e7\u00e3o&#8221;. Em espa\u00e7os de alta dimens\u00e3o, como o espa\u00e7o de embeddings de um LLM, \u00e9 poss\u00edvel encaixar um n\u00famero exponencialmente maior de vetores que s\u00e3o &#8220;quase perpendiculares&#8221; uns aos outros (por exemplo, todos com \u00e2ngulos entre 89 e 91 graus).<\/p>\n\n\n\n<p>Lembra da imagem dos vetores no gr\u00e1fico? Imagine que eles est\u00e3o pr\u00f3ximos uns aos outros por dist\u00e2ncias menores que um fio de cabelo, para pegar um exemplo f\u00edsico.<\/p>\n\n\n\n<p>Eu falei do GPT-3, que tem um espa\u00e7o de 12.288 dimens\u00f5es. Ele n\u00e3o est\u00e1 limitado a armazenar apenas 12.288 caracter\u00edsticas distintas mas pode armazenar ordens de magnitude a mais. Isso significa que uma \u00fanica caracter\u00edstica conceitual, como &#8216;joga basquete&#8217; ou &#8216;\u00e9 um atleta famoso&#8217;, pode n\u00e3o ser representada por um \u00fanico neur\u00f4nio artificial, voltando ao nosso exemplo do c\u00e9rebro.<\/p>\n\n\n\n<p>Em vez disso, o modelo pode representar milh\u00f5es de caracter\u00edsticas como combina\u00e7\u00f5es espec\u00edficas (superposi\u00e7\u00f5es) de muitos neur\u00f4nios, permitindo uma densidade de informa\u00e7\u00e3o que desafia nossa forma de pensar (a minha pelo menos).<\/p>\n\n\n\n<p>Este \u00e9 talvez o aspecto mais estranho da &#8220;intelig\u00eancia&#8221; inerente ao Aprendizado de M\u00e1quina (Machine Learning). Ela opera em uma geometria que nossa mente tem dificuldade em compreender, e permite que exista uma densidade de informa\u00e7\u00e3o que parece violar nossas regras de espa\u00e7o e organiza\u00e7\u00e3o da informa\u00e7\u00e3o.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"achado_no6_aprender_e_literalmente_apenas_rolar_morro_abaixo\"><\/span>Achado n\u00ba6: aprender \u00e9, literalmente, apenas rolar morro abaixo<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>No in\u00edcio do treinamento, todos os 175 bilh\u00f5es de par\u00e2metros de um modelo como o GPT-3 s\u00e3o aleat\u00f3rios. Se voc\u00ea pedisse para ele gerar texto, ele produziria apenas &#8220;lixo&#8221; incompreens\u00edvel. O processo de &#8220;aprendizagem&#8221; nada mais \u00e9 do que um m\u00e9todo para corrigir essa bagun\u00e7a inicial.<\/p>\n\n\n\n<p>Para fazer isso, definimos uma &#8220;fun\u00e7\u00e3o de custo&#8221; \u2014 um n\u00famero \u00fanico que mede &#8220;qu\u00e3o ruim&#8221; a rede \u00e9 em sua tarefa (por exemplo, prever a pr\u00f3xima palavra corretamente). Esse n\u00famero \u00e9 a m\u00e9dia do erro do modelo em dezenas de milhares de exemplos de treinamento. O objetivo do treinamento \u00e9 um s\u00f3: minimizar esse n\u00famero.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft size-medium\"><img loading=\"lazy\" decoding=\"async\" width=\"327\" height=\"600\" src=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/descida-do-gradiente-327x600.jpeg\" alt=\"descida do gradiente\" class=\"wp-image-9106\" title=\"\" srcset=\"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/descida-do-gradiente-327x600.jpeg 327w, https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/descida-do-gradiente.jpeg 768w\" sizes=\"auto, (max-width: 327px) 100vw, 327px\" \/><\/figure>\n<\/div>\n\n\n<p>A t\u00e9cnica usada \u00e9 chamada de &#8220;descida do gradiente&#8221; (gradient descent), e a melhor analogia \u00e9 visual. e vou te deixar com o exemplo que eu recebi:<\/p>\n\n\n\n<p><em>Imagine a fun\u00e7\u00e3o de custo como uma paisagem montanhosa, cheia de colinas e vales. O processo de treinamento \u00e9 como colocar uma bola no alto de uma colina e simplesmente deix\u00e1-la rolar para o vale mais pr\u00f3ximo. A cada passo, um algoritmo (backpropagation) calcula a dire\u00e7\u00e3o da &#8220;descida mais \u00edngreme&#8221; e ajusta levemente todos os 175 bilh\u00f5es de par\u00e2metros nessa dire\u00e7\u00e3o para reduzir o custo, ou seja, para fazer a bola rolar um pouquinho mais morro abaixo.<\/em><\/p>\n\n\n\n<p>Essa met\u00e1fora desmistifica o tal &#8220;aprendizado&#8221; de m\u00e1quina. N\u00e3o h\u00e1, na verdade, uma <a class=\"wl-entity-page-link\" href=\"https:\/\/semantico.com.br\/blog\/Vocabulario\/compreensao-2\/\" data-id=\"http:\/\/data.wordlift.io\/wl0221\/entity\/compreensao-2\">compreens\u00e3o<\/a> consciente, apenas um processo matem\u00e1tico de otimiza\u00e7\u00e3o, repetido trilh\u00f5es de vezes sobre um volume massivo de dados. O algoritmo ajusta incansavelmente os par\u00e2metros para encontrar um &#8220;vale&#8221; (um m\u00ednimo local) onde o desempenho do modelo nos dados de treinamento \u00e9 bom.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"entao_fica_a_pergunta_o_que_um_llm_entende_por_%e2%80%9centender%e2%80%9d\"><\/span>Ent\u00e3o fica a pergunta: o que um LLM entende por &#8220;entender&#8221;?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>N\u00f3s come\u00e7amos esse artigo falando de vetores est\u00e1ticos, que s\u00e3o meros pontos de partida, e chegamos a um processo din\u00e2mico de constru\u00e7\u00e3o de significado. Trouxe informa\u00e7\u00e3o sobre como a IA &#8220;pensa&#8221; atrav\u00e9s de um troca entre de perguntas e respostas, adi\u00e7\u00f5es vetoriais e gatilhos l\u00f3gicos, tudo orquestrado e afinado por um processo de otimiza\u00e7\u00e3o que se parece com uma bola rolando morro abaixo.<\/p>\n\n\n\n<p>Se ao final da escrita desse artigo que consigo ter mais algumas certezas, algumas ideias ainda giram em torno da minha cabe\u00e7a: se o &#8220;significado&#8221; pode ser constru\u00eddo atrav\u00e9s de opera\u00e7\u00f5es geom\u00e9tricas em um espa\u00e7o de alta dimens\u00e3o, e se o &#8220;aprendizado&#8221; \u00e9 apenas a forma matem\u00e1tica de minimizar uma fun\u00e7\u00e3o de erro em uma escala bizarramente colossal, estamos a um erro de c\u00e1lculo de um desastre completo?<\/p>\n\n\n\n<p>Isso \u00e9 o que chamamos de alucinar? Se sim, alucinar \u00e9 um erro ou somente algo esperado no processo de descida ladeira abaixo?<\/p>\n\n\n\n<p>Termino esse texto lhe prometendo uma segunda parte, talvez trazendo respostas a essas minhas perguntas.<\/p>\n\n\n\n\n","protected":false},"excerpt":{"rendered":"<p>Este \u00e9 um primeiro artigo de uma s\u00e9rie de escritos que eu estou fazendo com a ajuda de um dos meus agentes criados com a mesma estrat\u00e9gia usada no agente+Sem\u00e2ntico, que \u00e9 o servi\u00e7o de cria\u00e7\u00e3o dos agentes especializados em pesquisa e cocria\u00e7\u00e3o de conte\u00fado que a Sem\u00e2ntico SEO est\u00e1 oferecendo para todos aqueles que querem criar conte\u00fado de verdade, com a ajuda de IA. Isso significa que uma \u00fanica caracter\u00edstica conceitual, como &#8216;joga basquete&#8217; ou &#8216;\u00e9 um atleta famoso&#8217;, pode n\u00e3o ser representada por um \u00fanico neur\u00f4nio artificial, voltando ao nosso exemplo do c\u00e9rebro.<\/p>\n","protected":false},"author":2,"featured_media":9111,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"wl_entities_gutenberg":"","episode_type":"","audio_file":"","podmotor_file_id":"","podmotor_episode_id":"","cover_image":"","cover_image_id":"","duration":"","filesize":"","filesize_raw":"","date_recorded":"","explicit":"","block":"","itunes_episode_number":"","itunes_title":"","itunes_season_number":"","itunes_episode_type":"","footnotes":""},"categories":[3361],"tags":[],"wl_entity_type":[51],"series":[],"class_list":["post-9091","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","wl_entity_type-article"],"episode_featured_image":"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2025\/09\/O-que-o-cerebro-de-uma-IA-me-ensinou.png","episode_player_image":"https:\/\/semantico.com.br\/blog\/wp-content\/uploads\/2026\/03\/Capa-podcast.png","download_link":"","player_link":"","audio_player":false,"episode_data":{"playerMode":"dark","subscribeUrls":{"apple_podcasts":{"key":"apple_podcasts","url":"","label":"Apple Podcasts","class":"apple_podcasts","icon":"apple-podcasts.png"},"google_podcasts":{"key":"google_podcasts","url":"","label":"Google Podcasts","class":"google_podcasts","icon":"google-podcasts.png"},"pocketcasts":{"key":"pocketcasts","url":"","label":"PocketCasts","class":"pocketcasts","icon":"pocketcasts.png"},"podbean":{"key":"podbean","url":"","label":"Podbean","class":"podbean","icon":"podbean.png"},"stitcher":{"key":"stitcher","url":"","label":"Stitcher","class":"stitcher","icon":"stitcher.png"},"iheartradio":{"key":"iheartradio","url":"","label":"iHeartRadio","class":"iheartradio","icon":"iheartradio.png"}},"rssFeedUrl":"https:\/\/semantico.com.br\/blog\/feed\/podcast\/seo-semantico-podcast","embedCode":"<blockquote class=\"wp-embedded-content\" data-secret=\"yJERK9zVqh\"><a href=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/\">O que o c\u00e9rebro de uma IA me ensinou<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/semantico.com.br\/blog\/o-que-o-cerebro-de-uma-ia-me-ensinou\/embed\/#?secret=yJERK9zVqh\" width=\"500\" height=\"350\" title=\"&#8220;O que o c\u00e9rebro de uma IA me ensinou&#8221; &#8212; Blog Sem\u00e2ntico\" data-secret=\"yJERK9zVqh\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/semantico.com.br\/blog\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n"},"_wl_alt_label":[],"wl:entity_url":"http:\/\/data.wordlift.io\/wl0221\/post\/o-que-o-cerebro-de-uma-ia-me-ensinou-9091","_links":{"self":[{"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/posts\/9091","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/comments?post=9091"}],"version-history":[{"count":0,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/posts\/9091\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/media\/9111"}],"wp:attachment":[{"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/media?parent=9091"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/categories?post=9091"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/tags?post=9091"},{"taxonomy":"wl_entity_type","embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/wl_entity_type?post=9091"},{"taxonomy":"series","embeddable":true,"href":"https:\/\/semantico.com.br\/blog\/wp-json\/wp\/v2\/series?post=9091"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}