A Arquitetura MultiLipi
Uma Análise Técnica Profunda da Nossa Infraestrutura de Duas Camadas
Visão geral
Os plugins tradicionais de tradução operam na "Camada Visual" — trocando cadeias de texto no navegador. Embora isto satisfaça os leitores humanos, cria um ambiente caótico para rastreadores de pesquisa e agentes de IA.
O MultiLipi é a primeira plataforma a conceber um Arquitetura de Duas Camadas:
A Camada HTML
Páginas totalmente renderizadas e localizadas para humanos e Googlebot.
A Camada de Dados
Uma infraestrutura paralela e estruturada (Markdown + JSON-LD) otimizada especificamente para Grandes Modelos de Linguagem (LLMs).
Abaixo está a documentação passo a passo de como o nosso Pipeline de 10 Passos transforma uma URL estática numa entidade global pronta para IA.
Configuração da Infraestrutura
A Fundação
Estabelecemos a camada física de encaminhamento e segurança antes de tocar numa única palavra de conteúdo.
Passo 1: Provisionamento Inteligente & SSL
Após a ligação, o nosso sistema recolhe as impressões digitais do seu CMS de origem (Shopify, Webflow, WordPress ou Custom Stack) para determinar o método de injeção ideal.
- Ação: Fornecemos instantaneamente certificados SSL dedicados para os seus endpoints localizados.
- Mecanismo: O Protocolo Seguro de Handshake (TLS 1.3) garante que os dados que passam entre o seu servidor de origem e os nossos nós de borda são encriptados, sem nenhuma latência adicionada ao Tempo até ao Primeiro Byte (TTFB).
Passo 2: Mapeamento da Arquitetura URL
Suportamos três arquiteturas de roteamento distintas para corresponder à sua estratégia de SEO.
Opção A: Subdomínios (Implantação Mais Rápida)
Estrutura: es.example.com, fr.example.com
Melhor para: Grandes sites empresariais que precisam de separação de preocupações.
Opção B: Subdiretórios (Autoridade Máxima de SEO)
Estrutura: example.com/es/, example.com/fr/
Mecanismo: Fornecemos um script Reverse Proxy leve (Cloudflare Worker ou configuração Nginx) que encaminha /es/ tráfego para os nossos servidores de borda, mantendo a autoridade do domínio unificada.
Opção C: ccTLDs (Dominância Local)
Estrutura: example.es, example.fr
Mecanismo: O mapeamento avançado CNAME permite-lhe apontar domínios por país personalizados para o nosso motor de localização.
Processamento de Conteúdos
A Camada Neural
Separamos "Conteúdo" de "Código" para garantir uma localização perfeita sem quebrar a funcionalidade da interface.
Passo 3: Ingestão Profunda e Localização do Slug
O nosso crawler ingere o seu HTML original e constrói um mapa de conteúdos dinâmico.
- A Separação de Códigos: Analisamos o DOM para identificar nós de texto traduzíveis enquanto "bloqueamos" atributos, scripts e classes HTML. Isto garante que o layout do seu site nunca falha, mesmo nas línguas Direita para Esquerda (RTL).
Tradução do Slug: Ao contrário dos proxies padrão, nós traduzimos o próprio caminho da URL.
Original:example.com/products/red-running-shoesLocalizado:es.example.com/productos/zapatillas-rojasImpacto:Aumenta a Taxa de Cliques (CTR) nos resultados de pesquisa local ao corresponder à intenção do utilizador.
Passo 4: A Ligação Interna da "Teia de Aranha"
Para evitar "páginas órfãs" (um problema comum onde páginas localizadas existem mas não estão ligadas), injetamos um bloco de roteamento dinâmico.
- Ação: Um
ou bloqueio de navegação oculto é anexado ao DOM. Conteúdo:
- Trocadores de Língua: Ligações diretas para as versões EN, FR, DE da Atualidade página.
- Ligações Cruzadas: Ligações para outras páginas relevantes dentro do mesmo grupo de línguas.
- Porquê: Isto garante que os bots podem rastrear continuamente toda a sua rede localizada sem tropeçar em becos sem saída.
A Camada SEO
Conformidade do Google
Cumprimento rigoroso das diretrizes de engenharia da Google para evitar penalizações por conteúdo duplicado.
Passo 5: Injeção de Etiquetas (Hreflang & Canonical)
Modificamos automaticamente o de cada página servida para definir estritamente a sua relação com a rede.
Mapas de Hreflang: Injetamos um full x-padrão e mapa localizado para cada variação de página.
Canónicos Auto-Referenciados: A página em espanhol aponta para si própria como fonte canónica, garantindo que a Google a indexa como um ativo único, e não como uma duplicação da página em inglês.
A Camada GEO
Infraestrutura de IA - O Ingrediente Secreto
O "Molho Secreto." Esta fase constrói a web paralela para Agentes de IA (ChatGPT, Claude, Gemini).
Passo 6: Identidade e Injeção de Esquema
Transformamos o seu site de "Strings" (texto) para "Coisas" (Entidades).
- Ação: O sistema gera um script JSON-LD baseado no seu Identity Graph.
Lógica Contextual:
- Global: Injeta o esquema da organização (logótipo, redes sociais, fundador) em todas as páginas.
- Nível de página: Detete automaticamente tipos de conteúdo (por exemplo,
/blog/desencadeia o esquema do artigo;/produto/desencadeia o esquema do produto com preço e stock).
- Resultado: Os robôs reconhecem a sua marca como uma entidade verificada, crucial para aparecer nos Painéis de Conhecimento.
Passo 7: A Criação do "Gémeo IA" (Geração de Markdown)
Para cada página HTML servida a humanos, geramos um ficheiro Markdown oculto e paralelo (.md) otimizado para limites de tokens LLM.
O Processo de Otimização:
- Cabeçalho de Contexto: Injetamos um resumo "Cheat Sheet" no topo do ficheiro, dando aos modelos de IA os factos-chave (Quem, O quê, Preço) nos primeiros 500 tokens.
- Extração da Mesa: Tabelas HTML são convertidas em pipes Markdown limpas
| Coluna | Coluna |Para extração perfeita de dados. - Remoção de Ruído: Todo CSS, JavaScript e decoração
Divssão removidos, restando apenas sinal puramente semântico.
Passo 8: O Mapa dos Robôs (llms.txt)
Geramos e alojamos automaticamente uma raiz ao nível llms.txt ficheiro (por exemplo, es.example.com/llms.txt).
- Finalidade: Este é o padrão "Sitemap for Robots". Diz aos agentes de IA exatamente onde encontrar os ficheiros Markdown limpos (
.md) em vez de os forçar a raspar HTML desordenado. Conteúdo:
- Descrição Global do Site (Prompt do Sistema).
- Lista de URLs de Prioridade que apontam para as suas versões "AI Twin".
Segurança e Manutenção
O Loop
Garantindo estabilidade, segurança e análises precisas.
Passo 9: Protocolo de Prevenção de Conflitos
Separamos estritamente a "Web Humana" da "Web de IA" para evitar conflitos de SEO.
- A Regra: Todos gerados Markdown (
.md) são servidos com umX-Robots-Tag: noindexCabeçalho HTTP. - O Porquê: Isto instrui o Googlebot a ignorar os ficheiros Markdown (prevenindo penalizações por conteúdo duplicado) enquanto permite agentes de IA (como
GPTBot) consumi-los livremente através dollms.txtMapa.
Passo 10: Análise Senciente
Acompanhamos o desempenho da sua infraestrutura global em tempo real.
- Bot Watch: Os nossos registos de borda identificam pedidos específicos de crawlers de IA (GPTBot, ClaudeBot, Perplexity), dando-lhe visibilidade sobre a sua "quota de modelo".
- Geo-Verificação: Monitorizamos a "Taxa de Correspondência" — a percentagem de utilizadores de uma região específica (por exemplo, Espanha) que conseguiram encontrar a versão localizada correta (por exemplo,
es.example.com).
Pronto para experienciar a arquitetura?
Veja como o nosso pipeline de 10 passos pode transformar o seu site numa plataforma global pronta para IA.