Posición (Borda)

Modelo

Zero-shot

Parámetros activos (B)

Parámetros totales (B)

Dimensión del embedding

Máx. tokens

1

harrier-oss-v1-27b

78%

25.6

27.0

5376

131072

2

KaLM-Embedding-Gemma3-12B-2511

73%

10.8

11.8

3840

32768

3

llama-embed-nemotron-8b

99%

7.0

7.5

4096

32768

4

Qwen3-Embedding-8B

99%

6.9

7.6

4096

32768

5

gemini-embedding-001

99%

3072

2048

6

Qwen3-Embedding-4B

99%

3.6

4.0

2560

32768

7

Octen-Embedding-8B

99%

6.9

7.6

4096

32768

8

F2LLM-v2-14B

88%

13.2

14.0

5120

40960

9

F2LLM-v2-8B

88%

6.9

7.6

4096

40960

10

harrier-oss-v1-0.6b

78%

0.440

0.596

1024

 

Además del gran modelo de 27 mil millones de parámetros, existen dos variantes más pequeñas (0.6B y 270M) para hardware más modesto. Todos los modelos están disponibles en Hugging Face bajo la licencia MIT. El equipo planea integrar esta tecnología en Bing y en nuevos servicios de grounding para agentes de IA en el futuro.

Los modelos de embeddings se encargan de buscar, recuperar y organizar información para que los sistemas de IA puedan ofrecer respuestas precisas. Según Microsoft, están ganando cada vez más importancia en la era de los agentes de IA, ya que estos deben buscar información de forma independiente, actualizar el contexto a través de múltiples pasos y conservar memoria.