Very good solution. Without a doubt, I believe local AI will become increasingly important. Because a super powerful model running in the cloud isn't always needed. Sometimes something like what you mention is enough.
Interesante, Edgar. Añado que LLM Studio tiene un servidor local, es decir, desde algún skill de Claude Code/Codex, la que sea, puedes hacer peticiones a tu LLM local gratis. Mi caso de uso más reciente: Opus 4.7 escribe muy mal en castellano, cuesta hasta leerlo a veces, así que he montado un /traducir que tira de mi IA en local Gemma 4. Una tontuzada, pero va de lujo.
May 11
at
8:25 AM
Relevant people
Log in or sign up
Join the most interesting and insightful discussions.