Ollama Terminal Node V1.0

Interfaz de alto rendimiento para modelos LLM locales. Selecciona un modelo e introduce un prompt para comenzar la generación.

Ollama API: http://localhost:11434 Mod: Stream