Ollama Terminal Node V1.0
Interfaz de alto rendimiento para modelos LLM locales. Selecciona un modelo e introduce un prompt para comenzar la generación.
Ollama API: http://localhost:11434
Mod: Stream
Configuración
Auto-scroll