StyloAI

2Iy2fBGCQ4SH6xTla7kXmg (edit on libreon)

created: 20240709

updated: 14:19:19 - November 11, 2024

tags:

date: #5juill2024 #6juill2024

StyloAI

Implémentation d’un assistant à l’écriture dans stylo

Proposition de Marcello

#date:5juill2024

Objectifs

  • correction orthographique et syntaxique
  • suggestions de reformulation
  • suggestions de mots-clés
  • suggestions de références bibliographiques

Principes

Le principe fondamental de l’approche proposée est d’hybrider l’approche inductive des LLM avec une approche déductive (de type système expert) qui se base sur des connaissances structurées en sciences humaines et, plus précisement sur:

  • le savoir produit dans le cadre de l’infrastructure isidore
  • le savoir représenté par IEML

La méthodologie utilisée est celle de la disentagled representation qui consiste à prendre le dernier layer du transformeur et d’y ajouter des dimensions réservées à des connaissances structurées.

Chaîne de traitement

  • Choix d’un modèle:
    • vigogne
    • flauBERT
    • LLama
  • Surentrainement du modèle en utilisant un corpus d’articles de revue (Openedition? erudit?)
  • Production d’un modèle hybride styloai avec des techniques de disentanglement representation
    • prendre le dernier hidden layer des tokens du modèle et les enrichir:
      • avec l’identification de mots-clés tirés des dictionnaires isidore
      • avec des alignements avec IEML
    • la représentation finale du texte ressemblera à une liste de dictionnaires composés par les vecteurs, plus des informations structurées (par exemple les concepts en IEML ou la pondération sur la base de la correspondance d’un token à un mot-clé isidore) - ou alors un vecteur avec des dimensions ajoutées et réservées, mais pour IEML la solution dictionnaire me semble plus intéressante.
  • Extraction des mots-clés et identification d’entités nommées à partir du texte écrit (paragraphe par paragraphe? phrase par phrase?)
  • Représentation sémantique du texte sur la base des distances vectorielles, mais aussi sur la base des représentations fournies par les dictionnaires huma-num (discipline, par ex) et par les distances en IEML
  • Requêtes sur Huma-num à partir des mots-clés et des EN. Ces requêtes générerons une bibliographie de références utiles (sur le modèle de perplexity.ai).
  • Calcul de la probabilité du vecteur de chaque phrase.
  • Quand la probabilité est en dessous d’un seuil optimal, proposer des reformulations (sur le modèle de deeplwriter ou de https://quillbot.com/fr/reformuler-un-texte. - avec une méthode de ce type: https://sunilchomal.github.io/GECwBERT/

Ergonomie

L’assistant doit fonctionner en un mode séparé d’écriture - mode assistant d’écriture ou révision assistée, ou écriture assistée.

Il est nécessaire que la personne qui écrit puisse éditorialiser les mots-clés et le champ sémantique identifié automatiquement par l’algorithme en le visualisant d’abord et en ayant ensuite la possibilité de le modifier (ajouter des mots-clés ou des noms propres, éliminer des mots non pertinents, lancer d’autres requêtes sur huma-num.

Disclaimers importants

Afficher, dès l’activation de la fonctionnalité, un message qui en explique le fonctionnement et qui souligne qu,il s’agit d’une approche probabiliste. Insister sur la dimension “assistant à l’écriture”. Il est nécessaire de designer la plateforme pour que son fonctionnement soit le plus transparent possible (informations techniques et explications à différents niveau de technicité). La dimension pédagogique est essentielle pour l’outil.

Réponse de Louis-Olivier

#date:5juill2024

Je rebondis rapidement pour souligner la dimension « abductive » d’un tel système d’IA : les réponses d’un assistant de type LLM peuvent être intéressantes parce qu’on n’y avait pas pensé soi-même, notamment à partir d’une lecture automatisée d’un large corpus. L’intérêt d’un assistant LLM n’est peut-être pas nécessairement déductif ou inductif (puisque la notion de « vérité » est difficile à quantifier/évaluer/implémenter dans un système LLM), mais abductif, du fait de la nature justement spéculative des réponses générées par un modèle statistique (à partir de patterns que la cognition humaine ne peut pas immédiatement voir). C’est ensuite à l’utilisateur·trice (l’auteur·trice) de Stylo, du texte, d’éprouver les hypothèses proposées, de valider les réponses suggérées.

Voir cet article de Luciana Parisi (qui hérite beaucoup des idées sur la distribution de la cognition de N. Katherine Hayles) :

Critical Computation: Digital Automata and General Artificial Thinking - https://doi.org/10.1177/026327641881888

Sur l’abduction, il y a cet énorme ouvrage que je n’ai pas encore lu, je dois me pencher dessus un jour :

Magnani L (2009) Abductive Cognition: The Epistemological and Eco-Cognitive Dimensions of Hypothetical Reasoning, Berlin: Springer-Verlag.

Réponse de Pierre

#date:6juill2024

Super-intéressant! J’imagine que IEML sera particulièrement utile pour la suggestion de mots-clés et (indirectement) pour les suggestions bibliographiques.

Au sujet de l’abduction

Je pense qu’il faut distinguer les mécanismes de raisonnement et le type d’aide apportée à l’utilisateur. Au niveau des mécanismes…

  • L’apprentissage et l’inférence du LLM sont de type inductif
  • Les graphes de connaissances, y compris codés en IEML, sont de type déductif (on donne à la machine des concepts et des règles a priori).

L’abduction est la création d’une hypothèse explicative à partir de l’observation d’un cas. Exemple :

1. La pelouse est mouillée. (Observation)
1. S'il a plu, alors la pelouse serait mouillée. (Hypothèse)
1. Donc, il a probablement plu. (Conclusion probable)

En fait ce type de raisonnement sur un cas pourrait aussi bien avoir été généré par une machine inductive (LLM) que par une machine déductive (système expert, knowledge graph), à condition qu’on ait fourni des milliers de cas au LLM et des règles cohérentes et pertinentes pour le cas au système expert.

Un système hybride, tel que celui proposé par Marcello, pourrait sans doute servir d’aide à l’abduction pour l’auteur/trice si l’on considère la proposition de mots clés ou de références bibliographiques comme une génération d’hypothèses à partir du cas-article en cours d’écriture.

Au sujet de la “disentangled representation”.

Ci-joint un article basé sur la thèse de Fanny Jourdan (co-autrice de l’article). Elle est très brillante. (Son LinkedIn : https://www.linkedin.com/in/fanny-jourdan/) Elle travaille dans un labo d’IA à Toulouse (https://www.irt-saintexupery.com/fr/ et https://en.univ-toulouse.fr/node/2377 ) et elle va bientôt faire un stage au MILA à Montréal. Je lui ai fait une petite démo d’IEML en juin avec un autre membre de son labo toulousain. Je ne sais pas encore s’ils vont s’en servir, mais ils étaient intéressés pour une application de gestion de connaissances concernant des systèmes complexes.

Extrait de l’abstract de l’article de Fanny Jourdan:

“By directly manipulating the embeddings in the final layer, our approach enables a seamless integration into existing models without requiring significant modifications or retraining.”

Ils parlent de “Gradient Disentangled Embedding” ou de “Disentangled attention.” plutôt que de “Disentanglement representation” Il semble que “Disentangled attention” soit un cas particulier (pour les transformers) de “Disentangled representation”.

Dans tous les cas il s’agit de séparer / distinguer les différents facteurs qui expliquent la variation des données selon des dimensions indépendantes et interprétables (lumière, expression, identité pour la reconnaissance faciale ; ou bien syntaxe, sémantique et sentiment pour le texte).

Proposition de traduction française : représentation démêlée (désenchevêtré n’existe pas dans le dictionnaire mais on pourrait le créer).

Références bibliographiques

Magnani L (2009) Abductive Cognition: The Epistemological and Eco-Cognitive Dimensions of Hypothetical Reasoning, Berlin: Springer-Verlag.

Jourdan, F., Béthune, L., Picard, A., Risser, L., & Asher, N. (2024). TaCo : Targeted Concept Removal in Output Embeddings for NLP via Information Theory and Explainability (arXiv:2312.06499). arXiv. https://doi.org/10.48550/arXiv.2312.06499

Parisi, L. (2019). Critical Computation : Digital Automata and General Artificial Thinking. Theory, Culture & Society, 36(2), 89‑121. https://doi.org/10.1177/0263276418818889