# Architecture
**Source:** https://pt-pt.multilipi.com/technology/architecture
**Language:** Portugal Portuguese

---

Documentação Técnica

# A Arquitetura MultiLipi

Uma Análise Técnica Profunda da Nossa Infraestrutura de Duas Camadas

## Visão geral

Os plugins tradicionais de tradução operam na "Camada Visual" — trocando cadeias de texto navegador. Embora isto satisfaça os leitores humanos, cria um ambiente caótico para rastreadores de pesquisa e agentes de IA.

O MultiLipi é a primeira plataforma a conceber um **Arquitetura de Duas Camadas** :

### A Camada HTML

Páginas totalmente renderizadas e localizadas para humanos e Googlebot.

### A Camada de Dados

Uma infraestrutura paralela e estruturada (Markdown + JSON-LD) otimizada especificamente para Grandes Modelos de Linguagem (LLMs).

Abaixo está a documentação passo a passo de como o nosso **Pipeline de 10 Passos** transforma uma URL estática numa entidade global pronta para IA.

FASE 1

## Configuração da Infraestrutura

A Fundação

Estabelecemos a camada física de encaminhamento e segurança antes de tocar numa única palavra de conteúdo.

### Passo 1: Provisionamento Inteligente & SSL

Após a ligação, o nosso sistema recolhe as impressões digitais do seu CMS de origem (Shopify, Webflow, WordPress ou Custom Stack) para determinar o método de injeção ideal.

- **Ação:** Fornecemos instantaneamente certificados SSL dedicados para os seus endpoints localizados.
- **Mecanismo:** O Protocolo Seguro de Handshake (TLS 1.3) garante que os dados que passam entre o seu servidor de origem e os nossos nós de borda são encriptados, sem nenhuma latência adicionada ao Tempo até ao Primeiro Byte (TTFB).

### Passo 2: Mapeamento da Arquitetura URL

Suportamos três arquiteturas de roteamento distintas para corresponder à sua estratégia de SEO.

#### Opção A: Subdomínios (Implantação Mais Rápida)

**Estrutura:**  `es.example.com`, `fr.example.com`

**Melhor para:** Grandes sites empresariais que precisam de separação de preocupações.

#### Opção B: Subdiretórios (Autoridade Máxima de SEO)

**Estrutura:**  `example.com/es/` , `example.com/fr/`

**Mecanismo:** Fornecemos um script Reverse Proxy leve (Cloudflare Worker ou configuração Nginx) que encaminha `/es/` tráfego para os nossos servidores de borda, mantendo a autoridade do domínio unificada.

#### Opção C: ccTLDs (Dominância Local)

**Estrutura:**  `example.es` , `example.fr`

**Mecanismo:** O mapeamento avançado CNAME permite-lhe apontar domínios por país personalizados para o nosso motor de localização.

FASE 2

## Processamento de Conteúdos

A Camada Neural

Separamos "Conteúdo" de "Código" para garantir uma localização perfeita sem quebrar a funcionalidade da interface.

### Passo 3: Ingestão Profunda e Localização do Slug

O nosso crawler ingere o seu HTML original e constrói um mapa de conteúdos dinâmico.

- **A Separação de Códigos:** Analisamos o DOM para identificar nós de texto traduzíveis enquanto "bloqueamos" atributos, scripts e classes HTML. Isto garante que o layout do seu site nunca falha, mesmo nas línguas Direita para Esquerda (RTL).
- **Tradução do Slug:** Ao contrário dos proxies padrão, nós traduzimos o próprio caminho da URL.

  Original: `example.com/products/red-running-shoes`

  Localizado: `es.example.com/productos/zapatillas-rojas`

  Impacto: 

  Aumenta a Taxa de Cliques (CTR) nos resultados de pesquisa local ao corresponder à intenção do utilizador.

### Passo 4: A Ligação Interna da "Teia de Aranha"

Para evitar "páginas órfãs" (um problema comum onde páginas localizadas existem mas não estão ligadas), injetamos um bloco de roteamento dinâmico.

- **Ação:** Um `<footer>`ou bloqueio de navegação oculto é anexado ao DOM.
- **Conteúdo:**

  1. **Trocadores de Língua:** Ligações diretas para as versões EN, FR, DE da *Atualidade* página.
  2. **Ligações Cruzadas:** Ligações para outras páginas relevantes dentro do mesmo grupo de línguas.
- **Porquê:** Isto garante que os bots podem rastrear continuamente toda a sua rede localizada sem tropeçar em becos sem saída.

FASE 3

## A Camada SEO

Conformidade do Google

Cumprimento rigoroso das diretrizes de engenharia da Google para evitar penalizações por conteúdo duplicado.

### Passo 5: Injeção de Etiquetas (Hreflang & Canonical)

Modificamos automaticamente o `<head>` de cada página servida para definir estritamente a sua relação com a rede.

**Mapas de Hreflang:** Injetamos um full `x-padrão` e mapa localizado para cada variação de página.

<ligação  rel ="Alternativo"  Hreflang ="en"  href ="https://example.com/page"  />

<ligação  rel ="Alternativo"  Hreflang ="es"  href ="https://es.example.com/pagina"  />

**Canónicos Auto-Referenciados:** A página em espanhol aponta para si própria como fonte canónica, garantindo que a Google a indexa como um ativo único, e não como uma duplicação da página em inglês.

FASE 4

## A Camada GEO

Infraestrutura de IA - O Ingrediente Secreto

O "Molho Secreto." Esta fase constrói a web paralela para Agentes de IA (ChatGPT, Claude, Gemini).

### Passo 6: Identidade e Injeção de Esquema

Transformamos o seu site de "Strings" (texto) para "Coisas" (Entidades).

- **Ação:** O sistema gera um script JSON-LD baseado seu Identity Graph.
- **Lógica Contextual:**

  - **Global:** Injeta o esquema da organização (logótipo, redes sociais, fundador) em todas as páginas.
  - **Nível de página:** Detete automaticamente tipos de conteúdo (por exemplo, `/blog/` desencadeia o esquema do artigo; `/produto/` desencadeia o esquema do produto com preço e stock).
- **Resultado:** Os robôs reconhecem a sua marca como uma entidade verificada, crucial para aparecer nos Painéis de Conhecimento.

### Passo 7: A Criação do "Gémeo IA" (Geração de Markdown)

Para cada página HTML servida a humanos, geramos um ficheiro Markdown oculto e paralelo ( `.md` ) otimizado para limites de tokens LLM.

**O Processo de Otimização:**

1. **Cabeçalho de Contexto:** Injetamos um resumo "Cheat Sheet" topo do ficheiro, dando aos modelos de IA os factos-chave (Quem, O quê, Preço) nos primeiros 500 tokens.
2. **Extração da Mesa:** Tabelas HTML são convertidas em pipes Markdown limpas `| Coluna | Coluna |` Para extração perfeita de dados.
3. **Remoção de Ruído:** Todo CSS, JavaScript e decoração `Divs` são removidos, restando apenas sinal puramente semântico.

### Passo 8: O Mapa dos Robôs (llms.txt)

Geramos e alojamos automaticamente uma raiz ao nível `llms.txt`ficheiro (por exemplo, `es.example.com/llms.txt`).

- **Finalidade:** Este é o padrão "Sitemap for Robots". Diz aos agentes de IA exatamente onde encontrar os ficheiros Markdown limpos ( `.md` ) em vez de os forçar a raspar HTML desordenado.
- **Conteúdo:**

  - Descrição Global do Site (Prompt do Sistema).
  - Lista de URLs de Prioridade que apontam para as suas versões "AI Twin".

FASE 5

## Segurança e Manutenção

O Loop

Garantindo estabilidade, segurança e análises precisas.

### Passo 9: Protocolo de Prevenção de Conflitos

Separamos estritamente a "Web Humana" da "Web de IA" para evitar conflitos de SEO.

- **A Regra:** Todos gerados Markdown ( `.md` ) são servidos com um `X-Robots-Tag: noindex` Cabeçalho HTTP.
- **O Porquê:** Isto instrui o Googlebot a ignorar os ficheiros Markdown (prevenindo penalizações por conteúdo duplicado) enquanto permite agentes de IA (como `GPTBot` ) consumi-los livremente através do `llms.txt`Mapa.

### Passo 10: Análise Senciente

Acompanhamos o desempenho da sua infraestrutura global em tempo real.

- **Bot Watch:** Os nossos registos de borda identificam pedidos específicos de crawlers de IA (GPTBot, ClaudeBot, Perplexity), dando-lhe visibilidade sobre a sua "quota de modelo".
- **Geo-Verificação:** Monitorizamos a "Taxa de Correspondência" — a percentagem de utilizadores de uma região específica (por exemplo, Espanha) que conseguiram encontrar a versão localizada correta (por exemplo, `es.example.com`).

## Pronto para experienciar a arquitetura?

Veja como o nosso pipeline de 10 passos pode transformar o seu site numa plataforma global pronta para IA.