Spaces:
Build error
Build error
| import os | |
| import gradio as gr | |
| from llama_cpp import Llama | |
| from huggingface_hub import hf_hub_download | |
| # 📌 Modèle de base et LoRA | |
| MODEL_REPO = "Serveurperso/gemma-2-2b-it-LoRA" | |
| BASE_MODEL_FILE = "gemma-2-2b-it-Q8_0.gguf" | |
| LORA_ADAPTER_FILE = "gemma-2-2B-it-F16-LoRA.gguf" | |
| # 🔥 Télécharger les fichiers nécessaires | |
| print("🚀 Téléchargement du modèle GGUF...") | |
| base_model_path = hf_hub_download(repo_id=MODEL_REPO, filename=BASE_MODEL_FILE) | |
| lora_adapter_path = hf_hub_download(repo_id=MODEL_REPO, filename=LORA_ADAPTER_FILE) | |
| print(f"✅ Modèle de base GGUF téléchargé : {base_model_path}") | |
| print(f"✅ Adaptateur LoRA GGUF téléchargé : {lora_adapter_path}") | |
| # 🔥 Charger le modèle GGUF avec `llama-cpp-python` et appliquer LoRA | |
| print("🚀 Chargement du modèle GGUF en mémoire...") | |
| llm = Llama(model_path=base_model_path, n_ctx=2048, n_threads=os.cpu_count(), lora_adapter=lora_adapter_path) | |
| print("✅ Modèle GGUF chargé avec succès avec LoRA !") | |
| # 📌 Fonction pour interagir avec Mémé Ginette | |
| def chat(message): | |
| output = llm(message, max_tokens=128) | |
| return output["choices"][0]["text"] | |
| # 📌 Interface Gradio | |
| iface = gr.Interface(fn=chat, inputs="text", outputs="text", title="Mémé Ginette GGUF + LoRA") | |
| print("🚀 Interface Gradio lancée sur port 7860") | |
| iface.launch(share=True) | |