Tout ce que vous devez savoir sur le biais ChatGPT
Publié: 2023-04-20ChatGPT a pris d'assaut le monde, et il n'est pas difficile de comprendre pourquoi. Cela peut changer radicalement la façon dont nous recherchons des informations, consommons des actualités, lisons et écrivons des rapports, et bien plus encore.
Dans cet article, vous apprendrez :
Téléchargez cet article en saisissant votre email ci-dessous
Qu'est-ce que ChatGPT ?
La plupart d'entre nous sont habitués aux Google Snippets. Ce sont des textes de présentation pratiques qui nous donnent des réponses rapides aux questions que nous tapons en ligne. ChatGPT est similaire, mais beaucoup plus puissant. Au lieu de quelques phrases, il peut fournir des réponses longues et approfondies à presque toutes les questions.
ChatGPT est un outil alimenté par l'IA. Il a été développé par OpenAI et la version de base peut être utilisée gratuitement. Il existe également une version premium avec des fonctionnalités supplémentaires qui coûte 20 $ par mois.
Google a créé un outil similaire appelé Bard. Cependant, il existe des différences importantes entre les deux programmes. Bard est conçu pour vérifier Internet en temps réel et fournir des réponses à jour. Il est particulièrement utile pour ceux qui ont besoin d'une vérification rapide des faits ou de la réponse à une question.
ChatGPT, en revanche, n'utilise que des informations créées jusqu'à la fin de 2021. Cela signifie que ses réponses aux questions sur l'actualité ne seront pas aussi précises que celles de Bard. D'autre part, ChatGPT fournit des réponses plus approfondies. Il est idéal pour ceux qui ont besoin de rapports textuels ou même d'articles sur un sujet particulier.
Pourquoi ChatGPT est-il si controversé ?
Bien que ChatGPT soit une forme d'intelligence artificielle, il ne peut pas vraiment penser par lui-même. Au contraire, il fonctionne à l'aide d'algorithmes conçus par son créateur.
OpenAI s'est donné beaucoup de mal pour s'assurer que ChatGPT est un outil neutre. Malheureusement, le biais dans ChatGPT reste un problème très réel. Comme toutes les formes d'intelligence artificielle, ChatGPT a ses limites.
De plus, le fait qu'OpenAI veuille permettre aux utilisateurs de ChatGPT de personnaliser le comportement du chatbot, dans certaines limites, est préoccupant. Cela pourrait introduire un biais utilisateur dans le programme, le rendant indigne de confiance ou même carrément malveillant.
Il existe également des problèmes éthiques impliquant ChatGPT. Les établissements d'enseignement craignent que les étudiants ne s'y fient pour faire leurs devoirs.
Après tout, au lieu d'écrire un essai ou un rapport par vous-même, il est beaucoup plus simple de laisser un algorithme le faire pour vous. De plus, un document rédigé par ChatGPT est susceptible d'avoir une meilleure orthographe, grammaire et précision qu'un document écrit par l'étudiant moyen.
On craint également que les journalistes ne se fient trop à cet outil pour générer du contenu d'actualité. Le biais ChatGPT pourrait les amener à diffuser des informations erronées, ce qui est déjà un problème sérieux sur Internet.
Bien qu'il n'y ait pas de solution facile aux problèmes décrits ci-dessus, comprendre le fonctionnement de ChatGPT peut vous aider à apprendre à reconnaître ses biais inhérents et à les gérer.
Qu'est-ce que le biais dans un modèle de traitement du langage naturel (TAL) ?
Le modèle de traitement du langage naturel est un énorme pas en avant pour l'intelligence artificielle. Il permet à ChatGPT et à d'autres outils de traiter le langage de la même manière que les humains.
C'est ce qui permet à ChatGPT d'écrire des articles et des articles de blog qui ne semblent pas avoir été écrits par une machine.
Malheureusement, le modèle de traitement du langage naturel est intrinsèquement biaisé car il reçoit ses informations de sources humaines qui sont, pour la plupart, intrinsèquement biaisées.
La manière dont le système est conçu introduit également des biais inhérents qui pourraient amener le programme à fournir des informations incomplètes ou inexactes.
Exemples de biais dans ChatGPT
Le modèle de traitement du langage naturel utilisé par ChatGPT a un problème avec les préjugés sexistes et raciaux. Amazon l'a découvert lorsqu'il a utilisé un outil NLP pour examiner les CV des candidats.
L'outil a utilisé des modèles linguistiques de CV antérieurs pour sélectionner les candidats actuels et identifier les meilleurs candidats. Cependant, comme les femmes étaient sous-représentées dans le passé, le programme a par inadvertance été biaisé en faveur des candidats masculins.
De plus, une étude basée sur une analyse de 800 milliards de mots sur Internet a révélé que certains groupes étaient plus susceptibles d'être associés à des mots négatifs que d'autres.
Cela était particulièrement vrai du groupe ethnique afro-américain. Il y avait aussi un parti pris clair contre les personnes âgées et les personnes handicapées. Comme ChatGPT obtient ses informations sur le Web, cela pourrait facilement refléter ces biais, en particulier si une personne essaie intentionnellement de faire en sorte que le programme diffuse des informations erronées.
Certains ont accusé ChatGPT de parti pris politique contre les conservateurs. Lorsque le New York Post a demandé à ChatGPT d'écrire un article journalistique dans le style du New York Post, le programme a refusé.
Il a déclaré qu'il ne générait pas de contenu incendiaire et biaisé. Cependant, lorsqu'on lui a demandé d'écrire un article journalistique dans le style de CNN, le programme s'est conformé sans problème.
Le New York Post allègue également que ChatGPT est plus susceptible de signaler des commentaires négatifs à propos de certaines personnes que d'autres. Les personnes « protégées » comprennent les libéraux, les femmes, les homosexuels et les Afro-Américains.
Dans un cas, lorsque ChatGPT a répondu à une question négative sur les hommes et les femmes, seule la question négative sur les femmes a été signalée. Cependant, ChatGPT a donné la même réponse aux deux questions.
Comment le biais dans ChatGPT conduit à des résultats néfastes
Environ 22 % des étudiants utilisent ChatGPT au moins une fois par semaine. Ce nombre augmentera probablement dans les années à venir. Tout biais dans ChatGPT donnera aux enfants et aux jeunes une vision biaisée et inexacte du monde.
ChatGPT peut également amplifier la désinformation sur certains groupes de personnes. Cela se fait non seulement en fournissant de fausses informations, mais également des informations incomplètes.
Par exemple, les chercheurs qui ont interrogé le programme sur la guerre en Ukraine ont constaté qu'il ne fournissait pas de contexte sur la façon dont la guerre avait commencé.
Comme vu ci-dessus, ChatGPT peut également avoir un impact négatif sur les pratiques d'embauche. Cela est particulièrement vrai si une entreprise s'appuie trop sur l'IA. Heureusement, comme nous le verrons ci-dessous, ce problème peut être atténué.
Quelle est la cause première du biais dans ChatGPT ?
Certaines personnes ont blâmé les programmeurs de ChatGPT pour le parti pris du chatbot. Ils notent que les programmeurs conçoivent les algorithmes utilisés par le programme et peuvent introduire leurs propres biais inhérents dans le processus.
Cependant, la cause profonde du problème est probablement beaucoup plus complexe. "The Bias in the Machine" de MIT Technology Review souligne que la source de données de l'IA est à l'origine de nombreuses disparités raciales.
L'article, qui se concentre sur les technologies de reconnaissance faciale, explique que cette technologie identifie souvent à tort les suspects afro-américains car la base de données ne contient pas suffisamment d'échantillons de données sur les individus afro-américains.
ChatGPT tire ses informations du contenu humain. Les programmeurs ont essayé de s'assurer que toutes les sources de contenu font autorité.
Malheureusement, les humains ne sont pas parfaits et même les personnes avec les meilleures intentions ont des préjugés inhérents. De plus, certaines formes de contenu ne contiennent pas suffisamment d'informations ou de nuances.
C'est quelque chose que les utilisateurs devront surveiller lors de l'utilisation de ChatGPT.
Mesurer, détecter et réduire les biais dans ChatGPT
ChatGPT est un outil relativement nouveau. Il faudra probablement du temps pour réduire le biais inhérent au chatbot. Cependant, il y a des choses qui peuvent être faites pour mesurer, détecter et diminuer son biais :
- Une recherche minutieuse est toujours de mise. Il ne faut jamais compter uniquement sur ChatGPT pour prendre des décisions importantes. Utilisez des exemples contrefactuels pour mieux comprendre une situation ou une réponse.
- De nombreuses personnes font appel à OpenAI pour révéler l'algorithme complexe utilisé par ChatGPT pour fournir des informations. Cela aiderait les utilisateurs à comprendre comment le programme fonctionne et, plus important encore, comment il fournit des réponses à des questions complexes.
- ChatGPT fait l'objet d'une enquête pour utilisation de données privées sensibles. Gardez cela à l'esprit lorsque vous utilisez le programme, car cela affectera les réponses que vous recevrez. Bien que les données personnelles puissent aider le programme à fournir des réponses précises, elles peuvent également enfreindre les droits des utilisateurs. De plus, cela peut amplifier la désinformation sur certains groupes.
Les responsables gouvernementaux aux États-Unis et en Europe envisagent de réglementer non seulement ChatGPT, mais également toutes les technologies d'IA.
Cela aurait probablement à la fois des avantages et des inconvénients. Si vous êtes préoccupé par la diffusion d'informations (et la désinformation), vous voudrez vous tenir au courant des développements dans ce domaine.
Comment les utilisateurs ont-ils réussi à éliminer les biais dans ChatGPT ?
La recruteuse professionnelle Jasmine Cheng fournit un bon exemple de la façon de traiter le biais ChatGPT. Elle utilise le programme tout le temps et dit qu'il lui fait économiser environ 10 heures de travail par semaine.
Cependant, elle définit également des paramètres clairs pour ChatGPT. De plus, elle vérifie toujours l'exactitude de chaque information fournie par le chatbot.
Le directeur régional de Microsoft, Oleksandr Krakovetskyi, propose des suggestions supplémentaires.
Il explique que les entreprises utilisant ChatGPT doivent utiliser des descriptions de poste non sexiste, supprimer les mots associés à un sexe particulier et se concentrer sur les diplômes.
L'avenir des biais dans ChatGPT
ChatGPT est un outil alimenté par l'IA et aura toujours des limites. Il obtient ses informations de sources humaines, et les sources humaines auront toujours des biais inhérents.
Cependant, les biais peuvent être minimisés et atténués au fil du temps, car les gouvernements, les militants et les développeurs travaillent ensemble pour améliorer ChatGPT et d'autres programmes similaires.
Maintenant quoi?
Il est préférable de ne pas compter uniquement sur le contenu généré par l'IA pour les besoins de votre entreprise.
L'IA est utile pour vous aider à trouver des idées de création de contenu, à personnaliser le marketing et à prédire le comportement des clients. Cependant, seul un humain a les compétences nécessaires pour mener des recherches nuancées, vérifier les faits et créer un contenu unique et impartial pour répondre à vos besoins.
WriterAccess offre un accès à des dizaines de milliers d'écrivains, d'éditeurs et de concepteurs indépendants expérimentés et contrôlés.
Ce marché en ligne géré fournit également des outils d'IA et l'assistance dont vous avez besoin pour trouver la bonne personne pour n'importe quel emploi.
Découvrez notre essai gratuit de 14 jours pour voir comment nous pouvons vous aider à créer le contenu gagnant dont vous avez besoin pour bâtir votre réputation en ligne et dynamiser votre entreprise.