Crea tu propio ChatGPT en LOCAL

Crea tu propio ChatGPT en LOCAL

Usar modelos privados alojados en la nube (o, lo que es lo mismo, en hardware ajeno y más potente que el nuestro) siempre va a ser una opción "mejor" en cuanto a calidad y rapidez.

Pero, por lo general, no lo es en cuanto a privacidad y libertad, teniendo en cuenta tanto los intereses de estas empresas como los sesgos de los modelos. Y con los sesgos no me refiero tanto al entrenamiento de los LLM, que al final todos van a tenerlos en cierta medida, sino a los prompts internos que hacen que el modelo tenga mil restricciones.

Así que hoy te traigo una manera muy sencilla de montarte tu propio LLM en local por si quieres utilizarlo con documentación más sensible, que el modelo no se bloquee porque utilizas cierto lenguaje o simplemente por trastear.

Nota: si realmente te interesa utilizarlo con documentación sensible, asegúrate bien de que lo que instalas y lo que usas no puede acceder de manera remota a los archivos: ni las bibliotecas instaladas, ni el modelo, ni el agente. Es tu responsabilidad.

Ahora es tan sencillo como abrir Antigravity o Claude Code, crear una carpeta y ponerle este prompt: