What's happening in artificial intelligence, explained for everyone
Google Research presentó TurboQuant, un algoritmo que reduce el tamaño del caché de vectores en modelos de IA hasta 6 veces sin sacrificar precisión, logrando hasta 8x de aceleración en GPUs H100. Se presentará en ICLR 2026.