Chat GPT & IA textuelle : Définitions, limites et éthique

Depuis quelques mois la presse généraliste est en ébullition autour des nouveaux traitements de langages naturels, notamment ChatGPT, Bard ou le dernier nouveau né LLaMA (Meta) . Entre théorie dystopique, révolution du web ou nouvelle machine capitaliste pour faire disparaître des métiers comme évoqués par la théorie de la « destruction créatrice » de Schumpeter, il peut être difficile de comprendre de quoi on parle. Quelles évolutions concrètes sont à attendre de ces nouveaux outils ?
Aujourd’hui nous allons tenter de décortiquer de quoi il retourne en éliminant les éléments de langage et déterminer les questions qui se posent autour de l’usage de ces nouvelles technologies.

an image of what artificial intelligence could be with an Orwellian vision

21 minutes de lecture
ia-textuelle-definitions-limites-et-ethique

Définition

L’intelligence artificielle (IA) désigne la simulation de processus intellectuels humains par des machines, en particulier des systèmes informatiques. Elle s’appuie sur des algorithmes et des techniques qui permettent aux ordinateurs d’interpréter et d’apprendre à partir de données, afin de réaliser des tâches spécifiques sans intervention humaine directe.

Commençons par le commencement : une intelligence artificielle, c’est quoi en réalité ?

Définitions

La première définition de l’intelligence artific

ielle a été proposée par John McCarthy, l’un des pionniers de l’intelligence artificielle. Il la définit comme étant « la science et l’ingénierie des machines qui effectuent des tâches qui, pour être effectuées par des êtres humains, nécessitent une intelligence ». Cette définition a été écrite en 1956, et elle est encore largement utilisée aujourd’hui pour expliquer l’intelligence artificielle. Néanmoins, on peut reconnaître qu’avec le développement des technologies cette définition peut nous paraître vague et imprécise.

Arend Hintze, professeur de biologie intégrative et de science et ingénierie informatique à l’université de l’État du Michigan, est un des experts les plus cités par ses pairs dans ce domaine. Selon lui on peut classer l’intelligence artificielle (IA) en quatre catégories, qui vont des systèmes travaillant spécifiquement à une tâche, largement utilisés aujourd’hui, aux systèmes « sensibles » qui alimentent toutes les appréhensions, qui n’existent pas encore.

intelligence artificielle en 4 categories

Type 1 : Machines réactives.

Ces systèmes ont une intelligence spécifique à une tâche et n’ont pas de mémoire. Un exemple est le programme d’échecs Deep Blue qui a battu Garry Kasparov dans les années 1990.

Type 2 : Mémoire limitée.

Ces systèmes disposent d’une mémoire qui leur permet d’utiliser les expériences passées pour prendre des décisions futures. Par exemple, certaines fonctions de prise de décision dans les voitures autonomes sont conçues de cette manière.

Type 3 : Théorie de l’esprit.

La théorie de l’esprit est un terme de psychologie. Appliquée à l’IA, elle signifie que le système comprend les émotions humaines et peut prédire le comportement, c’est-à-dire qu’il est capable de s’intégrer à des équipes humaines.

Type 4 : Conscience de soi.

Ces systèmes ont une conscience et comprennent leur propre état. Ce type d’IA est encore à l’état de projet. Ce sont les plus répandues dans nos œuvres dystopiques, mais aussi en réalité, celles dont nous sommes le plus loin.

« Intelligence artificielle » : un emploi le plus souvent marketing

En général, les systèmes d’IA peuvent donc effectuer des tâches communément associées aux fonctions cognitives humaines : comme la reconnaissance vocale, les jeux et l’identification de modèles. Ils apprennent généralement en traitant de grandes quantités de données et en recherchant des schémas à intégrer dans leurs décisions. Globalement, on leur donne de grosses bases de données, un objectif et différents moyens d’obtenir un résultat.

Dans de nombreux cas, les humains supervisent ce processus d’apprentissage, en encourageant les bonnes décisions et en décourageant les mauvaises.

C’est comme cela que fonctionne, par exemple, le système « CAPTCHA » : une partie sert de méthode d’accès (trouver deux images similaires pour montrer que vous n’êtes pas un bot) là où la seconde partie ne sert qu’à faire apprendre à l’algorithme si ce qui est sur l’image est bien une voiture rouge. Globalement, la majeure partie des intelligences artificielles dont nous entendons parler correspond à ce type d’algorithme.

Petit garçon et son chien réalisé par DALL-E

« Petit garçon et son chien » | Réalisé avec l’outil de génération d’images DALL-E

IA forte et IA faible

Mais certains systèmes d’IA peuvent également apprendre indépendamment, par exemple en jouant à un jeu vidéo encore et encore jusqu’à ce qu’ils comprennent les règles et comment gagner.

Les experts en IA font généralement la distinction entre l’intelligence artificielle forte et l’intelligence artificielle faible. L’IA forte, ou intelligence générale artificielle est une machine capable de résoudre des problèmes sans avoir été entraînée, comme un humain. Cependant, bien que l’objectif soit clair, la recherche pour réaliser un tel exploit est loin d’être aboutie, et certains craignent que l’on puisse créer une IA très puissante et avide d’indépendance sans mécanismes de sécurité appropriés.

Au contraire, l’IA faible se concentre sur l’exécution efficace d’une seule tâche et est une simulation de l’intelligence humaine appliquée à un problème étroitement défini.

Lorsque l’on parle d’IA, les termes « Machine learning » et « deep learning» sont souvent mentionnés. Le Machine learning est un sous-domaine de l’IA et un algorithme d’apprentissage automatique est alimenté en données par un ordinateur et utilise des techniques statistiques pour l’aider à « apprendre » comment s’améliorer progressivement dans une tâche.

Le « deep learning » est un type d’apprentissage automatique qui exécute des entrées via une architecture de réseau neuronal d’inspiration biologique : Les réseaux neuronaux contiennent un certain nombre de couches cachées à travers lesquelles les données sont traitées, permettant à la machine d’aller plus profondément dans l’apprentissage.

Robot aidant une vieille dame à traverser

« Robot aidant une vieille dame à traverser » | Réalisé avec l’outil de génération d’images DALL-E

Chatgpt, et les modèles intelligents de langages, alors, qu’est-ce que c’est ?

Chatgpt, bard, sont des « NLP » pour « Naturel Language Processing », c’est-à-dire des « traitements automatiques du langage naturel ».

Le traitement automatique du langage naturel («NLP» en anglais) est un domaine des sciences informatiques qui se concentre sur le développement d’algorithmes qui peuvent comprendre le langage naturel humain. Cela permet aux ordinateurs d’analyser, comprendre et générer des phrases et des conversations humaines. Ces algorithmes sont essentiels à la création de systèmes informatiques capables de communiquer avec les humains, et sont largement utilisés dans les domaines de l’intelligence artificielle, de l’apprentissage automatique et des assistants vocaux.

Le « NLP » repose sur trois processus principaux :

  1. le traitement de la parole
  2. le traitement sémantique
  3. le traitement syntaxique

Le traitement de la parole implique la reconnaissance des mots et des phrases par le système d’exploitation. Le traitement sémantique fait référence à la capacité du système à comprendre le sens des mots et des phrases. Enfin, le traitement syntaxique implique la capacité informatique à saisir la structure syntaxique des phrases, c’est-à-dire la manière dont les mots sont agencés dans une phrase.

Le traitement «NLP» se poursuit ensuite par l’analyse des éléments de la phrase, ce qui permet de déterminer le sujet et le verbe de la phrase. Une fois cette analyse terminée, le système peut ensuite construire une représentation sémantique de la phrase, ce qui lui permet de comprendre le sens de la phrase et de prendre des décisions appropriées. Enfin, le système peut effectuer des actions en fonction des résultats obtenus. Le modèle linguistique va donc proposer une distribution de probabilité sur des mots ou des « séquences » de mots. Il va estimer la probabilité qu’une certaine séquence soit « valide » dans le sens de « ressemblant à ce qu’un humain pourrait écrire ». C’est donc un outil permettant d’incorporer un grand nombre d’informations de manière concise et réutilisable dans un contexte particulier.

Icone guillemet Félix TOUZÉ

Les tips
de l'expert

Félix TOUZÉChef de projet SEO

« Les limites spécifiques des nouveaux modèles de langage naturel sont le plus souvent liées à toute l’ambiguïté de notre langage, de ce fait un paramétrage préalable est nécessaire pour exploiter correctement le potentiel de ces nouveaux outils. »

En savoir plus

Pour aller plus loin, comment fonctionnent les différents modèles de langages ?

Deux modèles de langages

Les modèles de langage utilisés par les outils de traitement automatique du langage naturel sont des modèles algorithmiques qui permettent à l’ordinateur d’analyser et de comprendre le langage humain. Ces modèles sont généralement divisés en deux catégories principales : les modèles statiques et les modèles dynamiques.

Le modèle statique

Les modèles statiques sont basés sur l’utilisation de corpus (ensembles de texte) pour entraîner l’ordinateur à reconnaître des mots et des phrases. Un modèle statique peut être considéré comme une sorte de dictionnaire ou de thésaurus, où chaque mot est associé à sa signification et à sa structure syntaxique. Les avantages des modèles statiques sont qu’ils sont relativement simples et rapides à implémenter, et peuvent être appliqués à un grand nombre de tâches d’analyse du langage naturel. Une des applications les plus connues est les outils de corrections orthographiques.

Le modèle dynamique

Les modèles dynamiques, ou appelés plus techniquement « modèles linguistiques basés sur des réseaux neuronaux » sont plus complexes que les modèles statiques, car ils utilisent une combinaison d’algorithmes pour apprendre et comprendre le langage. Ces algorithmes intègrent des techniques dites de « machine learning », qui permettent à l’ordinateur d’adapter son comportement en fonction de l’expérience acquise. Les avantages des modèles dynamiques sont qu’ils peuvent être appliqués à une plus grande variété de tâches liées au traitement automatique du langage naturel, telles que la reconnaissance vocale, la compréhension du discours, la génération de textes et le traitement du discours. Ces modèles vont être capables d’apprendre et de perfectionner leurs réponses lors des différentes utilisations. Ce n’est pas pour rien que les accès à OpenAI ont longtemps été gratuits.

Les différents types de modèles de traitement automatique du langage naturel peuvent être utilisés pour résoudre une variété de problèmes liés au langage, tels que la traduction, la recherche d’informations, la génération automatique de contenu ou encore l’analyse sentimentale. Ils peuvent également être utilisés pour créer des chatbots capables d’interagir avec des personnes et de répondre à leurs questions. De ce fait, leur potentiel est considérable puisqu’applicable dans une multitude de domaines.

Jeune fille blonde devant un coucher de soleil

« Jeune fille blonde devant un coucher de soleil » | Réalisé avec l’outil de génération d’images DALL-E

Les challenges actuels des TNL

Les expressions contextuelles

Les mots et expressions contextuels sont des mots qui ont des significations différentes en fonction du contexte dans lequel ils sont utilisés. Par exemple, le mot « air » peut signifier le gaz que l’on respire ou bien l’aspect extérieur « le grand air de la campagne » ou « cet endroit à l’air pollué ».

Les homonymes

Les homonymes sont des mots qui se prononcent de la même façon, mais qui ont des sens différents, comme « ver », « verre », « vert », « vers », ils sont problématiques pour les outils de réponse vocale puisqu’ils ne sont pas écrits sous forme de texte.

Les synonymes

Les synonymes sont des mots qui ont des significations similaires, mais pas exactement identiques, les modèles d’analyse de texte peuvent avoir du mal à comprendre ces mots et expressions, car ils ne les reconnaissent pas toujours dans le contexte correct. C’est pourquoi il est important d’inclure beaucoup de données pertinentes et de synonymes lors de l’apprentissage de ces modèles afin qu’ils puissent comprendre correctement le contexte.

Robot lisant un livre avec émotion

L’ironie et le sarcasme

Grande spécialité française, elles impliquent des interprétations complètement différentes en fonction du contexte et du locuteur, elles sont particulièrement difficiles à comprendre pour les modèles puisque propres à chaque individu.

Ambiguïté

Même pour l’humain une phrase seule peut être extrêmement ambiguë, dans ce cas il est très difficile pour un modèle de comprendre lui aussi de quoi il retourne. On peut spécifier 3 ambiguïtés :

  1. Ambiguïté lexicale : un mot qui peut être utilisé comme verbe, nom ou adjectif ;
  2. Ambiguïté sémantique : l’interprétation d’une phrase en contexte. Par exemple : j’ai vu le garçon sur la plage avec mes jumelles. Cela pourrait signifier que j’ai vu un garçon à travers mes jumelles ou que le garçon avait mes jumelles avec lui ;
  3. Ambiguïté syntaxique : dans la phrase ci-dessus, c’est ce qui crée la confusion de sens. La phrase avec mes jumelles pourrait modifier le verbe « vu » ou le nom « garçon ».

Même pour nous, cette phrase seule est difficile à interpréter sans le contexte du texte environnant.

Les erreurs !

Les mots mal orthographiés ou mal utilisés peuvent empêcher un ordinateur de comprendre ce que vous essayez de dire. Les applications de correction automatique et de correction grammaticale peuvent détecter certaines erreurs courantes, mais pas toutes. Par ailleurs, avec le langage parlé, il peut être difficile pour une machine de reconnaître l’accent, la prononciation et les bégaiements. Malgré tout, les bases de données linguistiques s’améliorent et les assistants vocaux peuvent apprendre à comprendre les intentions des personnes qui les utilisent.

L’argot et le langage familier

Les modèles destinés à une large utilisation peuvent se heurter à des difficultés lorsqu’il s’agit de gérer le langage informel, tels que les expressions, les idiomes et les jargons locaux. Ces mots familiers ne possèdent souvent pas de « définition du dictionnaire » et peuvent être interprétés différemment selon la zone géographique. De plus, les mots tendent à changer constamment, avec de nouveaux termes apparaissant chaque jour.

Le langage spécifique à des domaines précis et techniques

Les outils de traitement du langage naturel possèdent des bases de données énormes, avec des expressions et des informations qui peuvent être antinomiques d’un domaine à l’autre. Ils ont donc besoin d’énormément de contextualisations voire d’être partitionné pour répondre à des besoins différents.

Conclusion : des modèles imparfaits, des défis à relever, mais rien d’insurmontable

Le nombre de démonstrations de ces incompréhensions ont pullulé sur le web et les réseaux avec la démocratisation de OpenAI, moquant la qualité de l’algorithme, néanmoins il peut être très facile de trouver risible l’interprétation des TNL en réalité le plus souvent l’utilisateur n’a pas assez contextualisé sa demande ou bien l’outil ne possède pas assez d’information sur un domaine qui peut être précis, novateur, technique et donc inconnu de son modèle. Il ne faut pas oublier que ce sont les erreurs et les tentatives qui lui permettent de s’améliorer. L’enrichissement de données et la contextualisation permettront donc de continuellement améliorer la qualité de leurs réponses.

Considérations éthiques sur l’utilisation du Chat GPT

Comme toute nouvelle technologie impactant, les outils de modélisation naturelle de langage et l’utilisation de toutes les intelligences artificielles liées posent un certain nombre de questions, qu’elles soient éthiques, morales ou juridiques.

IA regardant le monde brûler

« IA regardant le monde brûler » | Réalisé avec l’outil de génération d’images DALL-E

L’éthique ne peut être dissociée des innovations technologiques

Aujourd’hui, il apparaît de plus en plus clair que l’avènement des modèles de générations de langages naturels et autres IA fortes seront de réels perturbateurs pour nos sociétés. La qualité de ces technologies tend a considérablement s’améliorer, on peut s’attendre à ce que ses nouveaux assistants virtuels prennent le pas sur des outils et des métiers employés aujourd’hui et qu’ils révolutionnent nos usages. Il est primordial que nos sociétés puissent prendre en main ces thématiques et déterminent les usages et les limites éthiques à ne pas franchir. Ces nouveaux outils apparaissent déjà comme potentiellement dangereux pour les démocraties de par leur essence : mimer un comportement humain. On peut facilement imaginer des dérives à travers la massification de faux avis, commentaires, en inondant des canaux de communication.

Biais dans les données d’entraînement

Il est essentiel de prendre en compte dans les aspects éthiques liés à l’utilisation du Chat GPT (ou autre outil) que l’un des principaux enjeux concerne les biais éventuellement présents dans les données d’entraînement utilisées pour le modèle.
Ces biais peuvent entraîner des résultats inexacts et injustes, en particulier pour les groupes déjà marginalisés par la société. Pour obtenir des résultats précis et justes, il est nécessaire de disposer d’un ensemble de données diversifié et représentatif. En somme, du fait que la société soit raciste par exemple (ou tout du moins que le racisme soit présent dans nos sociétés) ces outils, peuvent, de fait, répliquer inconsciemment des idéologies et des extraits nocifs. On peut penser à l’algorithme twitter qui avait, il y a quelques mois, fait scandale après avoir davantage mis en avant des personnes de couleurs blanches que noires parce que l’algorithme estimait que les individus blancs avaient des taux de likes supérieurs.

Mauvais usage et utilisation abusive de la technologie

Une autre des questions éthiques à envisager est le risque que la technologie soit mal utilisée ou abusée. Le ChatGPT et ses confrères sont capables de produire des contenus qui peuvent être très similaires à ceux des êtres humains ; ces contenus pourraient être utilisés à des fins malveillantes, tels que la propagation de fausses informations ou l’utilisation illicite d’identités. Pour prévenir de tels abus et tenir les responsables de leurs mauvaises actions, il est important de mettre en place des mesures de protection. Au-delà des fausses informations, qui peut être une donnée difficile à quantifier, c’est l’usage massif, répété et orienté d’une information qui peut avoir un impact considérable dans l’influence culturelle, politique ou sociale des individus, via ces outils. De la même manière que le scandale américain de Cambridge Analytica et Facebook.

Impact sur le déplacement d’emplois et la perte d’interaction humaine

L’utilisation des technologies de conversation automatisée telle que le Chat GPT peut avoir des conséquences sur le travail et l’emploi. L’automatisation de certaines tâches qui auparavant étaient effectuées par des êtres humains peut entrainer une perte d’emploi et une réduction des interactions humaines. Il est donc essentiel de prendre conscience de ces effets et de trouver des stratégies pour les atténuer, par exemple en offrant des possibilités de reformation professionnelle et de nouvelles opportunités d’emploi.

Néanmoins, nous sommes encore loin de réellement remplacer les individus pour des métiers créatifs ou réellement qualitatifs : Les rédacteurs web qualifiés ne sont pas remplacés. Le marché va se resserrer et offrir de meilleures opportunités aux bons voire très bons tout en remplaçant la rédaction de contenus de faible qualité.

Protection de la vie privée et sécurité

L’intégrité et la sécurité des données sont les secondes considérations éthiques les plus importantes selon moi. En raison de la manière dont le modèle génère du texte à partir des données reçues, des détails personnels peuvent être exposés. De plus, les résultats du modèle peuvent être utilisés pour suivre et profiler des personnes. Par conséquent, il est essentiel de mettre en place des mesures de sécurité et de confidentialité adéquates pour protéger les données des utilisateurs et éviter tout abus : Globalement, c’est presque impossible, personne ne peut assurer que des données privées ne seront jamais divulguées. Pour cette raison la régulation, avec un prolongement du RGPD à travers de ces outils est nécessaire.
Par ailleurs, on ne peut que rappeler, les dangers d’avoir une vie trop exposée sur le web, les réseaux sociaux et les sites tiers.

Responsabilité des développeurs, des utilisateurs et de la société

L’utilisation du ChatGPT ou tout autre outil doit être soumis à des responsabilités partagées par les développeurs, les utilisateurs et la société.

Il est difficilement concevable que les développeurs n’aient pas l’obligation de veiller à ce que le modèle soit formé à l’aide de données variées et représentatives, et à mettre en place des mécanismes de sécurité pour prévenir les abus. Les utilisateurs doivent user de cette technologie de manière éthique et appropriée, mais il est dans ce cas plus difficile de contraindre l’utilisation. C’est pour cette raison que la société doit reconnaître l’impact de ces technologies et prendre des mesures pour la réglementer. Les innovations étant extrêmement rapide et l’évolution législative, par nature, très lente, nous connaissons et connaîtrons des périodes de floues juridiques et éthiques.

Conclusion

Ces sujets sont d’actualités et il est primordial que les discussions s’ouvrent sur la propriété intellectuelle, les risques pour la sécurité des individus et l’influence de ces outils d’un point de vue idéologique sont réels.

Zaacom à votre écoute

Vous souhaitez obtenir un avis concernant le SEO ?

Contactez nos équipes spécialistes de la visibilité sur le web !

Je veux un avis

Tous nos contenus

interview Yuna Royer SEO Zaacom
harmoniea
Par Harmonie ANDRIEU
Directrice des opérations
top 10 des meilleures agences seo
yuna r
Par Yuna ROYER
SEO Top 10 des meilleures agences SEO

12/11/2024

En savoir plus
Gaetan cleret seo zaacom
harmoniea
Par Harmonie ANDRIEU
Directrice des opérations