Janela de Token
Uma Janela de Token (ou Janela de Contexto) é o limite da quantidade de texto (medida em tokens) que um modelo de IA pode processar numa única interação. Determina quanto do conteúdo do seu site uma IA pode "ler" e "memorizar" ao mesmo tempo para gerar uma resposta.
Por que o tamanho do conteúdo é importante para a visibilidade da IA
Se as suas páginas web estiverem sobrecarregadas com código excessivo, texto redundante ou conteúdo não estruturado, podem ultrapassar a janela de tokens da IA, fazendo com que esta "esqueça" o início da página ou ignore detalhes críticos por completo. O GPT-4 tem uma janela grande (128k tokens ≈ 96.000 palavras), mas modelos mais pequenos e rápidos usados para pesquisa em tempo real podem ler apenas 8k tokens (≈ 6.000 palavras). A informação crítica deve estar no topo, claramente estruturada e concisa. É por isso que o esquema JSON-LD é crucial — apresenta factos em formato ultra-compacto que encaixa confortavelmente em qualquer janela de token, garantindo que os modelos de IA possam sempre aceder aos seus dados chave.
Leitura Humana vs. Processamento de Janelas de Token
Impacto no Mundo Real
Página de produto de 15.000 palavras com preços escondidos no fundo
Modelo de IA pequeno atinge o limite de 8k tokens a meio do caminho
A IA nunca vê preço, não consegue citar produto
Esquema JSON-LD em <head> com todos os factos chave</head>
A IA lê dados completos do produto em 200 tokens
Visibilidade perfeita, citações consistentes da IA