// Vector Strategy, nästa steg

Embedding-modell-tänket är bevisat. Nu vet vi att det funkar.

Vi har länge sagt att AI-sökmotorer rankar content via vector retrieval och att Vector Strategy mäter samma sak. Nu har jag bevisat det. Vi kan replikera matematiskt hur en AI värderar relevans mot ett sökord.

Premissen var rätt. Mätinstrumentet var fel.

Vector Strategy bygger på att AI-sökmotorer (ChatGPT, Perplexity, Gemini) hämtar content via vector retrieval. Det vi mäter ska därför vara samma sak: hur nära en text ligger ett sökord i den semantiska rymden.

Hittills har vi mätt det via Claude-estimering. Det var en approximation, inte verklig mätning. Frågan jag ville få svar på: funkar embedding-modeller för det här jobbet, och i så fall hur bra?

Cosine similarity, kort

En embedding-modell omvandlar text till en vektor i hög-dimensionell rymd. Två texter med liknande betydelse hamnar nära varandra. Vinkeln mellan deras vektorer (cosine av vinkeln) blir score:n.

θ Sökord Textstycke Liten vinkel = hög relevans. Cosine av vinkeln blir score mellan -1 och 1.
cosine(A, B) = (A · B) / (‖A‖ × ‖B‖)
Normaliseras till 0 till 1 för läsbarhet i rapporter.

Det här är vad RAG-system och AI-sökmotorer faktiskt kör under huven. Inte en analogi, inte en approximation. Samma operation.

Hur jag testade om det funkar

Jag tog en open source embedding-modell, bge-m3 från BAAI, multilingual, 1024 dimensioner, körd lokalt via Ollama. Inte produktionslösning, bara testverktyg för att kunna mäta.

Setup: 5 cases från olika kunder (CDON, ILVA, Ekeby, Takteam, Mitsubishi), 60 textstycken totalt, 5 metoder körda mot varandra (bge-m3, en mindre embedding-modell, Claude Opus, Sonnet, Haiku), 2 körningar per metod. 50 mätningar att jämföra.

Fynd 1: Embedding-modeller är deterministiska. Claude är inte.

0,000 vs 0,06 till 0,23

Bge-m3 ger bit-identiska scores varje körning. Claude-modellerna driver. Det betyder att två rapporter på samma sida med 6 månaders mellanrum får samma siffror med embedding-modell, men inte med Claude.

Fynd 2: Embedding-modellen hittar samma svaga chunks som Opus

7 av 10 träffar

Vi jämförde vilka chunks bge-m3 pekade ut som svagast med vilka Opus pekade ut. 69% överlapp. Sonnet ligger på 79%, Haiku på 69%. Bge-m3 är i klass med Haiku på det jobb Vector Strategy faktiskt gör.

Fynd 3: Mätfasen blir gratis i tokens

0 tokens vs 400k till 1,3M

Claude-estimering kräver tokens per chunk per körning. En embedding-modell jobbar utanför token-ekonomin. Om vi kör 24 kunder med återkommande analyser så är det här inte småpengar.

Vector Strategy får en grund att stå på

Det här är inte en optimering. Det är en kvalitativ förändring. Med deterministisk scoring kan vi för första gången köra samma textstycke mot samma sökord om och om igen och faktiskt mäta om en omskrivning blev bättre. Det gick inte tidigare. Variationen mellan körningar var större än effekten av textförändringen.

Och rolluppdelningen blir tydligare. Embedding-modellen är inte en LLM-ersättare. Den är ett mätinstrument för en specifik uppgift.

Embedding-modell

Mäter geometrisk likhet mellan text och sökord. Producerar siffror. Konsekvent. Det här är vad RAG-system gör.

Claude

Tolkar siffrorna. Gör gap-analys, skriver rekommendationer, identifierar mönster. Här är reasoning rätt verktyg.

Hur kör vi det här i produktion?

Beviset är gjort på min M1. Det är inte en produktionslösning. Frågan jag tar med mig till AI-teamet är hur vi paketerar det. Cloudflare Workers AI har bge-m3 som beta. En central Ollama-instans på vår infrastruktur är ett alternativ. Viviane-integration ett tredje. Det är en distributionsfråga, inte en teknisk svårighet.

Det viktiga är att första delen är klar: embedding-modell-tänket är rätt verktyg för Vector Strategy. Det är bevisat. Nästa steg är att skala det.