From AGI Promises to Realities: Practical insights into language model fine-tuning and evaluation
datacraft datacraft
232 subscribers
107 views
1

 Published On Mar 5, 2024

Si les fournisseurs annoncent presque vendre l'AGI-comme-un-service via API à des clients d'entreprise, la réalité après avoir essayé d'utiliser un LLM propriétaire comme service sur un cas d'utilisation spécifique est souvent différente. Générations non pertinentes, réponses hors contexte, mauvaise compréhension des requêtes des utilisateurs et plus largement le manque d'expertise dans le sujet commencent à éroder la confiance des utilisateurs et des actionnaires dans le potentiel de pouvoir transformateur du déploiement de flux de travail améliorés par LLM à travers votre organisation. Vous n'êtes pas seul dans cette aventure.

Dans cette présentation, nous explorerons le paysage des solutions de fine-tuning pour LLM open-source, en pesant leurs avantages et inconvénients. Nous plongerons dans les données requises et comment concevoir un cadre d'évaluation robuste pour évaluer systématiquement la performance de votre modèle interne.

Nous approfondirons les subtiles différences entre les Méthodes de Fine tuning Efficaces en termes de Paramètres (PEFT), les approches d'apprentissage par renforcement, ce qu'il faut garder à l'esprit lors de la considération de celle à utiliser.

Cette présentation est une synthèse du déploiement des capacités LLM dans diverses organisations, des startups aux environnements corporatifs. C'est un mélange d'aperçus issus de travaux de recherche et d'expériences pragmatiques.

Nous n'entrerons pas dans les détails des opérations mathématiques sous-jacentes pour chaque approche de fine-tuning, notre objectif est plutôt de partager l'intuition de ces concepts, vous équipant pour concevoir un plan d'action efficace pour le fine-tuning d'un LLM pour votre cas d'usage business spécifique.

show more

Share/Embed