Metí un LLM chico adentro de una app Next.js y esto fue lo que aprendí
javascript
dev.to
Eran las 2am y Chrome me estaba mostrando 4.2GB de RAM usados en una sola pestaña. El modelo llevaba 47 segundos "pensando" una respuesta de tres palabras. Yo miraba la pantalla con esa mezcla de fascinación y horror que solo te da la tecnología cuando funciona y no funciona al mismo tiempo. Esto es lo que pasó cuando decidí meter un LLM chico adentro de una app Next.js. LLM pequeño en el browser: qué promete, qué entrega Cuando vi el thread de Show HN con 836 puntos sobre LLMs ti