Documentação Técnica

A Arquitetura MultiLipi

Uma Análise Técnica Profunda da Nossa Infraestrutura de Duas Camadas

Visão geral

Os plugins tradicionais de tradução operam na "Camada Visual" — trocando cadeias de texto no navegador. Embora isto satisfaça os leitores humanos, cria um ambiente caótico para rastreadores de pesquisa e agentes de IA.

O MultiLipi é a primeira plataforma a conceber um Arquitetura de Duas Camadas:

A Camada HTML

Páginas totalmente renderizadas e localizadas para humanos e Googlebot.

A Camada de Dados

Uma infraestrutura paralela e estruturada (Markdown + JSON-LD) otimizada especificamente para Grandes Modelos de Linguagem (LLMs).

Abaixo está a documentação passo a passo de como o nosso Pipeline de 10 Passos transforma uma URL estática numa entidade global pronta para IA.

FASE 1

Configuração da Infraestrutura

A Fundação

Estabelecemos a camada física de encaminhamento e segurança antes de tocar numa única palavra de conteúdo.

Passo 1: Provisionamento Inteligente & SSL

Após a ligação, o nosso sistema recolhe as impressões digitais do seu CMS de origem (Shopify, Webflow, WordPress ou Custom Stack) para determinar o método de injeção ideal.

  • Ação: Fornecemos instantaneamente certificados SSL dedicados para os seus endpoints localizados.
  • Mecanismo: O Protocolo Seguro de Handshake (TLS 1.3) garante que os dados que passam entre o seu servidor de origem e os nossos nós de borda são encriptados, sem nenhuma latência adicionada ao Tempo até ao Primeiro Byte (TTFB).

Passo 2: Mapeamento da Arquitetura URL

Suportamos três arquiteturas de roteamento distintas para corresponder à sua estratégia de SEO.

Opção A: Subdomínios (Implantação Mais Rápida)

Estrutura: es.example.com, fr.example.com

Melhor para: Grandes sites empresariais que precisam de separação de preocupações.

Opção B: Subdiretórios (Autoridade Máxima de SEO)

Estrutura: example.com/es/, example.com/fr/

Mecanismo: Fornecemos um script Reverse Proxy leve (Cloudflare Worker ou configuração Nginx) que encaminha /es/ tráfego para os nossos servidores de borda, mantendo a autoridade do domínio unificada.

Opção C: ccTLDs (Dominância Local)

Estrutura: example.es, example.fr

Mecanismo: O mapeamento avançado CNAME permite-lhe apontar domínios por país personalizados para o nosso motor de localização.

FASE 2

Processamento de Conteúdos

A Camada Neural

Separamos "Conteúdo" de "Código" para garantir uma localização perfeita sem quebrar a funcionalidade da interface.

Passo 3: Ingestão Profunda e Localização do Slug

O nosso crawler ingere o seu HTML original e constrói um mapa de conteúdos dinâmico.

  • A Separação de Códigos: Analisamos o DOM para identificar nós de texto traduzíveis enquanto "bloqueamos" atributos, scripts e classes HTML. Isto garante que o layout do seu site nunca falha, mesmo nas línguas Direita para Esquerda (RTL).
  • Tradução do Slug: Ao contrário dos proxies padrão, nós traduzimos o próprio caminho da URL.

    Original:example.com/products/red-running-shoes
    Localizado:es.example.com/productos/zapatillas-rojas
    Impacto:

    Aumenta a Taxa de Cliques (CTR) nos resultados de pesquisa local ao corresponder à intenção do utilizador.

Passo 4: A Ligação Interna da "Teia de Aranha"

Para evitar "páginas órfãs" (um problema comum onde páginas localizadas existem mas não estão ligadas), injetamos um bloco de roteamento dinâmico.

  • Ação: Um
    ou bloqueio de navegação oculto é anexado ao DOM.
  • Conteúdo:

    1. Trocadores de Língua: Ligações diretas para as versões EN, FR, DE da Atualidade página.
    2. Ligações Cruzadas: Ligações para outras páginas relevantes dentro do mesmo grupo de línguas.
  • Porquê: Isto garante que os bots podem rastrear continuamente toda a sua rede localizada sem tropeçar em becos sem saída.
FASE 3

A Camada SEO

Conformidade do Google

Cumprimento rigoroso das diretrizes de engenharia da Google para evitar penalizações por conteúdo duplicado.

Passo 5: Injeção de Etiquetas (Hreflang & Canonical)

Modificamos automaticamente o de cada página servida para definir estritamente a sua relação com a rede.

Mapas de Hreflang: Injetamos um full x-padrão e mapa localizado para cada variação de página.

<ligação rel="Alternativo" Hreflang="en" href="https://example.com/page" />
<ligação rel="Alternativo" Hreflang="es" href="https://es.example.com/pagina" />

Canónicos Auto-Referenciados: A página em espanhol aponta para si própria como fonte canónica, garantindo que a Google a indexa como um ativo único, e não como uma duplicação da página em inglês.

FASE 4

A Camada GEO

Infraestrutura de IA - O Ingrediente Secreto

O "Molho Secreto." Esta fase constrói a web paralela para Agentes de IA (ChatGPT, Claude, Gemini).

Passo 6: Identidade e Injeção de Esquema

Transformamos o seu site de "Strings" (texto) para "Coisas" (Entidades).

  • Ação: O sistema gera um script JSON-LD baseado no seu Identity Graph.
  • Lógica Contextual:

    • Global: Injeta o esquema da organização (logótipo, redes sociais, fundador) em todas as páginas.
    • Nível de página: Detete automaticamente tipos de conteúdo (por exemplo, /blog/ desencadeia o esquema do artigo; /produto/ desencadeia o esquema do produto com preço e stock).
  • Resultado: Os robôs reconhecem a sua marca como uma entidade verificada, crucial para aparecer nos Painéis de Conhecimento.

Passo 7: A Criação do "Gémeo IA" (Geração de Markdown)

Para cada página HTML servida a humanos, geramos um ficheiro Markdown oculto e paralelo (.md) otimizado para limites de tokens LLM.

O Processo de Otimização:

  1. Cabeçalho de Contexto: Injetamos um resumo "Cheat Sheet" no topo do ficheiro, dando aos modelos de IA os factos-chave (Quem, O quê, Preço) nos primeiros 500 tokens.
  2. Extração da Mesa: Tabelas HTML são convertidas em pipes Markdown limpas | Coluna | Coluna | Para extração perfeita de dados.
  3. Remoção de Ruído: Todo CSS, JavaScript e decoração Divs são removidos, restando apenas sinal puramente semântico.

Passo 8: O Mapa dos Robôs (llms.txt)

Geramos e alojamos automaticamente uma raiz ao nível llms.txt ficheiro (por exemplo, es.example.com/llms.txt).

  • Finalidade: Este é o padrão "Sitemap for Robots". Diz aos agentes de IA exatamente onde encontrar os ficheiros Markdown limpos (.md) em vez de os forçar a raspar HTML desordenado.
  • Conteúdo:

    • Descrição Global do Site (Prompt do Sistema).
    • Lista de URLs de Prioridade que apontam para as suas versões "AI Twin".
FASE 5

Segurança e Manutenção

O Loop

Garantindo estabilidade, segurança e análises precisas.

Passo 9: Protocolo de Prevenção de Conflitos

Separamos estritamente a "Web Humana" da "Web de IA" para evitar conflitos de SEO.

  • A Regra: Todos gerados Markdown (.md) são servidos com um X-Robots-Tag: noindex Cabeçalho HTTP.
  • O Porquê: Isto instrui o Googlebot a ignorar os ficheiros Markdown (prevenindo penalizações por conteúdo duplicado) enquanto permite agentes de IA (como GPTBot) consumi-los livremente através do llms.txt Mapa.

Passo 10: Análise Senciente

Acompanhamos o desempenho da sua infraestrutura global em tempo real.

  • Bot Watch: Os nossos registos de borda identificam pedidos específicos de crawlers de IA (GPTBot, ClaudeBot, Perplexity), dando-lhe visibilidade sobre a sua "quota de modelo".
  • Geo-Verificação: Monitorizamos a "Taxa de Correspondência" — a percentagem de utilizadores de uma região específica (por exemplo, Espanha) que conseguiram encontrar a versão localizada correta (por exemplo, es.example.com).

Pronto para experienciar a arquitetura?

Veja como o nosso pipeline de 10 passos pode transformar o seu site numa plataforma global pronta para IA.