Семантический поиск vs полнотекстовый: сравниваем три embedding-модели на 10 000 категорий Ozon
Сравнил полнотекстовый поиск PostgreSQL (tsvector/tsquery + GIN-индекс) с семантическим поиском через pgvector (cosine distance) на датасете из 10 019 товарных категорий Ozon.
Три embedding-модели:
GigaChat EmbeddingsGigaR (Сбер, 2560-мерные векторы, API)
Qwen3-Embedding-0.6B (Alibaba, 1024-мерные, локальный инференс через HF Text Embeddings Inference на GPU)
text-embedding-3-small (OpenAI, 1536-мерные, API)
Прогнал 18 запросов в пяти категориях: синонимы и сленг, intent-запросы в свободной форме, подарочная тематика, cross-lingual (EN-запросы к RU-данным), абстрактные формулировки. Замерил латентность и top-5 с cosine similarity score.
Разбор каждого запроса, таблицы и код — под катом.
Читать далее