comprendre Originalité ou effondrement des modèles, il faudra choisir... L'avenir des données est désorrmais au centre des débats aussi bien comme élément fondateur des modèles de language que pour le sort réservé aux auteurs.
comprendre La qualité des textes comme frein au développement des LLM Parmi les facteurs de succès de l'IA, les données constituent un enjeu clé. Leur quantité et, surtout, leur qualité, pourraient constituer un frein à l'augmentation de la performance des modèles.
comprendre Glossaire de l'IA Generative Glossaire des termes à connaître concernant l'IA Generative et les Large Language Model (LLM). Régulièrement enrichi avec des modifications ou de nouvelles définitions.
comprendre 8 choses à (re)découvrir sur les modèles de langage Les LLM fascinent autant qu'ils sont incompris. Voici huit questions fréquentes à leur sujet dont les réponses sont parfois des découvertes récentes.
comprendre Les agents autonomes, prochaine frontière du legal NLP ? La capacité à raisonner est une des pierres d'achoppement du Deep Learning appliquée au droit. Une solution consiste à s'appuyer sur des ontologies avec les imperfections associées. Une autre approche vient d'émerger avec les agents "autonomes".
comprendre L'art du prompting : un aperçu Le prompting permet de piloter le modèle de langage à partir de textes rédigés en langage naturel. Cette approche peut être adaptée en fonction des objectifs, du plus simple (prompt standard) au plus sophistiqué (agent autonome).
comprendre Ontologie et Knowledge Graph Une ontologie est un "corpus structuré de concepts, qui est modélisé dans un langage permettant l’exploitation par un ordinateur des relations sémantiques établies entre ces concepts".
comprendre Les Transformers L'architecture de réseau de neurones appelée Transformer et ses nombreuses variantes dont le nom rappelle un jouet célèbre des années 80 sont à l'origine de GPT et de progrès fulgurants dans le domaine.
comprendre Le découpage des mots : les tokens Les modèles de langage consomment du texte en entrée pour produire des sorties adaptées aux tâches prescrites. Pour utiliser le modèle, il est nécessaire de transformer les mots ou de procéder à un découpage élémentaire des documents avec des opérations dites de tokenization.
comprendre Représenter le sens des mots En informatique, la représentation la plus efficace des mots se fait sous forme d'un tableau à une colonne qui contient une suite de nombres. Ces nombres représentent les différents champs sémantiques du mot et sont regroupés sous le terme de vecteur.
comprendre Les métriques d'évaluation L'évaluation des modèles de machine learning pose des problèmes particuliers. Un programme informatique traditionnel prend en entrée des données et fournit un résultat toujours identique (en principe !) en sortie. Cette logique déterministe ne peut pas s'appliquer au machine learning et, en particulier, au NLP. Revenons quelques instants sur les objectifs
comprendre L'apprentissage ou l'entraînement des modèles Un réseau de neurones apprend, c'est-à-dire qu'il ajuste par itérations ses paramètres pour aboutir au résultat souhaité : prédir un mot, identifier des entités dans un texte, classifier une clause dans un contrat...
comprendre Sélection et hyperparamétrage des modèles Les données collectées et préparées doivent être injectées dans un ou plusieurs types de modèles d'apprentissage choisis généralement par le maître d'œuvre en fonction des objectifs et du problème traité. Il existe pléthore d'algorithmes dans le domaine du Machine Learning qui peuvent répondre à différents objectifs. A ce stade, il
comprendre Les jeux de données (dataset) L'essor du Deep Learning tient à trois facteurs : * l'augmentation de la puissance de calcul ; * la mise au point de modèles plus performants comme les Transformers ; * l'explosion du volume des données d'apprentissage. Les données sont le carburant des algorithmes d'IA. Elles entretiennent une relation intime avec les modèles d'inférence car, à
comprendre L'utilisation des modèles pré-entraînés ou transfer learning ChatGPT est un produit fini, utilisable tel quel, construit à partir d'un modèle de base (GPT) puis amélioré avec un entraînement additionnel. C'est typiquement un service construit à partir d'un modèle pré-entraîné pour en faire un agent conversationnel. Cette pratique est devenue quasiment standard dans le monde du NLP. Avant
comprendre Legal NLP : état des lieux Le coeur de l'activité des professionnels du droit paraissait peu sujet à des disruptions majeures. L'arrivée sur le marché des Large Language Model (ci-après LLM) pourrait désormais changer la donne.
comprendre Les principales tâches du Legal NLP Le traitement du langage adapté au droit a des objectifs spécifiques : prédit l'issue d'un litige, répondre à des questions juridiques ou auditer automatiquement des documents.