4 bits) y cómo ajustar los modelos. En particular, este cuaderno de Colab muestra cómo ajustar el modelo de 9 mil millones de parámetros con una sola GPU de Google Colab, utilizando LoRA y cuantización de 4 bits.

Ready to merge
This branch is ready to get merged automatically.

Sign up or log in to comment