Instructions to use Smith-3/simon-fcyt-umss with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- llama-cpp-python
How to use Smith-3/simon-fcyt-umss with llama-cpp-python:
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="Smith-3/simon-fcyt-umss", filename="LFM2-350M-chatml.q8_0.gguf", )
llm.create_chat_completion( messages = [ { "role": "user", "content": "What is the capital of France?" } ] ) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- llama.cpp
How to use Smith-3/simon-fcyt-umss with llama.cpp:
Install from brew
brew install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf Smith-3/simon-fcyt-umss:Q4_K_M # Run inference directly in the terminal: llama-cli -hf Smith-3/simon-fcyt-umss:Q4_K_M
Install from WinGet (Windows)
winget install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf Smith-3/simon-fcyt-umss:Q4_K_M # Run inference directly in the terminal: llama-cli -hf Smith-3/simon-fcyt-umss:Q4_K_M
Use pre-built binary
# Download pre-built binary from: # https://github.com/ggerganov/llama.cpp/releases # Start a local OpenAI-compatible server with a web UI: ./llama-server -hf Smith-3/simon-fcyt-umss:Q4_K_M # Run inference directly in the terminal: ./llama-cli -hf Smith-3/simon-fcyt-umss:Q4_K_M
Build from source code
git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp cmake -B build cmake --build build -j --target llama-server llama-cli # Start a local OpenAI-compatible server with a web UI: ./build/bin/llama-server -hf Smith-3/simon-fcyt-umss:Q4_K_M # Run inference directly in the terminal: ./build/bin/llama-cli -hf Smith-3/simon-fcyt-umss:Q4_K_M
Use Docker
docker model run hf.co/Smith-3/simon-fcyt-umss:Q4_K_M
- LM Studio
- Jan
- vLLM
How to use Smith-3/simon-fcyt-umss with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Smith-3/simon-fcyt-umss" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Smith-3/simon-fcyt-umss", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/Smith-3/simon-fcyt-umss:Q4_K_M
- Ollama
How to use Smith-3/simon-fcyt-umss with Ollama:
ollama run hf.co/Smith-3/simon-fcyt-umss:Q4_K_M
- Unsloth Studio new
How to use Smith-3/simon-fcyt-umss with Unsloth Studio:
Install Unsloth Studio (macOS, Linux, WSL)
curl -fsSL https://unsloth.ai/install.sh | sh # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Smith-3/simon-fcyt-umss to start chatting
Install Unsloth Studio (Windows)
irm https://unsloth.ai/install.ps1 | iex # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Smith-3/simon-fcyt-umss to start chatting
Using HuggingFace Spaces for Unsloth
# No setup required # Open https://huggingface.co/spaces/unsloth/studio in your browser # Search for Smith-3/simon-fcyt-umss to start chatting
- Docker Model Runner
How to use Smith-3/simon-fcyt-umss with Docker Model Runner:
docker model run hf.co/Smith-3/simon-fcyt-umss:Q4_K_M
- Lemonade
How to use Smith-3/simon-fcyt-umss with Lemonade:
Pull the model
# Download Lemonade from https://lemonade-server.ai/ lemonade pull Smith-3/simon-fcyt-umss:Q4_K_M
Run and chat with the model
lemonade run user.simon-fcyt-umss-Q4_K_M
List all available models
lemonade list
simon-fcyt-umss (GGUF) 🎓✨
Modelo de IA ajustado para la Facultad de Ciencias y Tecnología – Universidad Mayor de San Simón (UMSS),
diseñado para la aplicación TecnoTime, la cual ayuda a estudiantes a mantenerse organizados, motivados y conectados con sus actividades académicas.
Este modelo es un fine-tuning de LiquidAI/LFM2-350M orientado a producir respuestas consistentes, validadas y parseables, siguiendo la clase SimonResponse del sistema Android.
La conversión a GGUF se realizó usando Unsloth, optimizando su uso en:
llama.cpptext-generation-webui- dispositivos con recursos limitados (laptops modestos, labs universitarios, teléfonos con inferencia local)
🎯 Propósito Académico
Este modelo está orientado a:
- Recordatorios de clases y horarios
- Mensajes motivacionales para mejorar continuidad académica
- Check-ins cortos para acompañamiento del progreso diario
- Estímulo positivo en momentos clave del semestre
Está pensado para reforzar:
Hábitos, constancia, asistencia, estado de ánimo y autocuidado académico.
🧱 Formato Estructurado de Respuesta (JSON Obligatorio)
La salida del modelo no es texto libre.
Siempre debe generar un único objeto JSON con los campos requeridos:
{ "why": "...", "opening_tag": "...", "icon_tag": "...", // Campos adicionales según tipo de notificación }
Campos según tipo de template:
| Tipo de Notificación | Requiere | Opcional | Sin |
|---|---|---|---|
| MOTIVATIONAL_CHECK_IN | question, choices (2) | — | — |
| CLASS_REMINDER | question, choices (2) | — | — |
| CHECK_IN_CLOSURE | message o reminder_copy | — | choices |
| REMINDER_CLOSURE | reminder_copy | — | choices |
✅ Ejemplos Reales Usados en TecnoTime
Recordatorio de Clase
{ "why": "Para que no pierdas tu ritmo académico", "opening_tag": "¡Atención, estudiante FCyT!", "question": "¿Listo para tu clase de hoy?", "icon_tag": "info", "choices": [ {"id": "yes", "label": "Llego en un momento"}, {"id": "no", "label": "Estoy terminando algo"} ] }
Check-in Motivacional
{ "why": "Para reforzar tu constancia", "opening_tag": "¡Vamos con toda, ingeniería!", "question": "¿Cómo te sientes con lo que has avanzado hoy?", "icon_tag": "focus", "choices": [ {"id": "yes", "label": "Bien, sigo avanzando"}, {"id": "no", "label": "Hoy fue complicado"} ] }
📦 Archivos GGUF Disponibles
| Archivo | Uso recomendado |
|---|---|
| LFM2-350M.Q5_K_M.gguf | Mejor equilibrio calidad / rendimiento |
| LFM2-350M.Q8_0.gguf | Máxima calidad (requiere más RAM) |
| LFM2-350M.Q4_K_M.gguf | Equipos de bajos recursos / labs |
🚀 Uso con llama.cpp
llama-cli -m LFM2-350M.Q5_K_M.gguf -p "GENERAR: CLASS_REMINDER para clase de Física"
🐍 Uso con transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("tuUsuario/simon-fcyt-umss") model = AutoModelForCausalLM.from_pretrained("tuUsuario/simon-fcyt-umss")
prompt = "GENERAR: MOTIVATIONAL_CHECK_IN" inp = tokenizer(prompt, return_tensors="pt") out = model.generate(**inp, max_new_tokens=160) print(tokenizer.decode(out[0], skip_special_tokens=True))
⚖️ Licencia
Este modelo deriva de LiquidAI/LFM2-350M, bajo:
LFM Open License v1.0 https://huggingface.co/LiquidAI/LFM2-350M/blob/main/LICENSE
📌 Estado
✅ Listo para uso en TecnoTime
⏳ Próxima etapa: Publicación en Play Store
🔗 Enlace será añadido próximamente.
- Downloads last month
- 37
Model tree for Smith-3/simon-fcyt-umss
Base model
LiquidAI/LFM2-350M