🦥Docs Unsloth
Entraînez votre propre modèle avec Unsloth, un framework open-source pour l'affinage des LLM et l'apprentissage par renforcement.
Chez Unsloth, notre mission est de rendre l'IA aussi précise et accessible que possible. Entraînez et déployez DeepSeek, gpt-oss, Llama, TTS, Qwen, Gemma LLMs 2x plus vite avec 70 % de VRAM en moins.
Nos docs vous guideront pour exécuter et entraîner votre propre modèle localement.
🦥 Pourquoi Unsloth ?
Unsloth simplifie l'entraînement local, l'évaluation et le déploiement avec Ollama, llama.cpp et vLLM.
⭐ Principales fonctionnalités
Prend en charge le fine-tuning complet, le pré-entraînement, l'entraînement en 4 bits, 16 bits et 8 bits.
Prend en charge tous types de modèles: TTS, embedding, multimodal, et plus.
La plus efficace bibliothèque d'apprentissage par renforcement utilisant 80 % de VRAM en moins. Prend en charge GRPO, GSPO, etc.
0 % de perte de précision - pas de quantification ni de méthodes d'approximation - tout est exact.
MultiGPU fonctionne déjà mais une bien meilleure version arrive !
Démarrage rapide
Unsloth prend en charge Linux, Windows, NVIDIA, AMD & Intel. Voir : Exigences Unsloth
Installez localement avec pip (recommandé) pour les appareils Linux ou WSL :
Utilisez notre image Docker: unsloth/unsloth. Lisez notre guide Docker.
Pour les instructions d'installation sous Windows, voir ici.
Nouveaux modèles
Qu'est-ce que le fine-tuning et le RL ? Pourquoi ?
Fine-tuning un LLM personnalise son comportement, améliore les connaissances du domaine et optimise les performances pour des tâches spécifiques. En affinant un modèle pré-entraîné (par ex. Llama-3.1-8B) sur un jeu de données, vous pouvez :
Mettre à jour les connaissances : Introduire de nouvelles informations spécifiques au domaine.
Personnaliser le comportement : Ajuster le ton, la personnalité ou le style de réponse du modèle.
Optimiser pour des tâches : Améliorer la précision et la pertinence pour des cas d'utilisation spécifiques.
L'apprentissage par renforcement (RL) est le processus où un « agent » apprend à prendre des décisions en interagissant avec un environnement et en recevant des retours sous la forme de récompenses ou pénalités.
Action : Ce que le modèle génère (par ex. une phrase).
Récompense : Un signal indiquant si l'action du modèle était bonne ou mauvaise (par ex. la réponse a-t-elle suivi les instructions ? était-elle utile ?).
Environnement : Le scénario ou la tâche sur lequel le modèle travaille (par ex. répondre à la question d'un utilisateur).
Exemples d'utilisation du fine-tuning ou du RL:
Permet aux LLM de prédire si un titre a un impact positif ou négatif sur une entreprise.
Peut utiliser les interactions clients historiques pour des réponses plus précises et personnalisées.
Affinez un LLM sur des textes juridiques pour l'analyse de contrats, la recherche de jurisprudence et la conformité.
Vous pouvez considérer un modèle affiné comme un agent spécialisé conçu pour effectuer des tâches spécifiques plus efficacement et plus précisément. Le fine-tuning peut reproduire toutes les capacités du RAG, mais pas l'inverse.

Mis à jour
Ce contenu vous a-t-il été utile ?










