LLMs convergen en representación numérica: 12 modelos, 0.87 correlación
¿Qué descubrió exactamente este estudio?12 modelos de lenguaje de diferentes arquitecturas y tamaños (desde 1B hasta 70B parámetros) desarrollaron representaciones numéricas sorprendentemente similares en sus capas internas, alcanzando una correlación geométrica de 0.87 ± 0.04 medida por similitud coseno alineada.Investigadores de Stanford University y UC San Diego — Deqing Fu, Tianyi Zhou, Mikhail Belkin, Vatsal …









