Discusión sobre este post

Avatar de User
Avatar de Joel Quesada

Enhorabuena por el artículo y gracias por compartirlo con tanto detalle. Se ven pocos así, con números reales :)

Os cuento una variante que probamos en Veepee (Privalia en España) para queries cuyo vocabulario no está en el catálogo. En lugar de tirar de un embedder semántico, expandíamos las búsquedas con "sinónimos" aprendidos de los propios datos implícitos. Por ejemplo: alguien busca "bambas", esa palabra no aparece en ninguna descripción, pero los datos muestran una relación altísima con que esa persona acabe comprando "sneakers". Es una relación que aprendes de tus propios datos, no de un modelo general. Esto también sirve para aprender otros conceptos como "marcas similares".

Tiene su parte mala, claro: cold-start con queries nuevas, donde un embedder zero-shot funciona mejor. A cambio, pilla mucho mejor términos coloquiales o regionales, donde la intención de compra no coincide del todo con la similitud semántica.

Lo dejo por si os sirve para comparar enfoques. ¡Un saludo!

Avatar de Alfonso Anton

Que gran Articulo! Enhorabuena por ese trabajazo! Para los no expertos en la materia se agradece este estilo.

Un saludo.

8 comentarios más...

Sin posts

Por supuesto, sigue adelante.