ChatGPT est une intelligence artificielle dévoilée en novembre 2022. Même si l’on peut y trouver quelques erreurs factuelles, cette IA produit en quelques secondes, un texte sur n’importe quel sujet, avec une précision étonnante.
À plusieurs reprises, des remarques violentes, sexistes et racistes étaient apparues sur l’ancienne version de ChatGPT. Open AI, l’entreprise étasunienne qui a développé cette IA, ChatGPT a alors utilisé une méthode déjà utilisée par Facebook il y a quelques années (et qui avait déjà fait scandale) : sous-traiter ce travail de modération en faisant appel à des modérateurs, chargés de visionner/lire du contenu sensible afin de le bloquer pour qu’il n’arrive pas jusqu’aux utilisateurs. Open AI fait appel à l’entreprise Sama, qui embauche des travailleurs kenyans, payés moins de 2$/heure. Facebook avait déjà fait appel à cette entreprise pour « trier les contenus ».
Une enquête publiée dans le Time le 18 janvier met en lumière la face cachée de cette industrie de l’IA : des conditions de travail déplorables (salariés payés une misère) + contenus hyper violents auxquels sont confrontés les modérateurs, afin que le reste du monde puisse avoir accès à un contenu « sain » + impacts psychologiques sur les travailleurs
Précisons sur le salaire : les travailleurs sont payés entre 1.32$ et 2$ de l’heure, en fonction de la « performance » et de « l’ancienneté ».
Les modérateurs peuvent recevoir des primes liés à des indicateurs de performance tels que la précision et la rapidité.
Précisons sur les impacts psychologiques : Les modérateurs passent donc leurs journées à lire des textes violent, haineux, d’abus sexuels, de torture, d’incestes …
Pourtant, l’entreprise Sama a mis en place la possibilité de rendez-vous avec des « conseillers bien-être ». Selon les salariés, ces rendez-vous se sont avérés inutiles en raison de la pression due à la charge de travail. D’autres salariés ont aussi annoncé n’avoir pu assister qu’à des sessions travail de groupe et que les demandes de rendez-vous privés avec des conseillers étaient restés lettre morte. L’entreprise nient ces faits.
Précisions sur les conditions de travail : En 2021, OpenAI signe un contrat de 200k$ avec l’entreprise Sama pour identifier des contenus d’abus sexuel, de discours haineux et de violence. Trois équipes, de 12 travailleurs chacune, sont « spécialisés » sur un des sujets. Les travailleurs lisent entre 150 et 200 passages de textes en 9h, contenant chacun entre 100 et 1 000 mots.
Les salariés ont affirmé aux journalistes du Time d’être « mentally scared by the work », soit d’être mentalement effrayé par la leur travail
Ce travail invisible contribue pourtant à la création d’industrie valant des milliards de dollars. Actuellement, les millions/milliards de dollars sont investis dans l’IA.
Open AI paierait l’entreprise Sama, 12.5$/heure, soit entre six et neuf fois ce que les employés sont payés (même si le porte-parole de Sama met en avant tous les coûts auxquels est confronté l’entreprise).
Deux camps s’affrontent :
- – Ceux qui qualifient la création de cette IA comme « bond technologique »
- – Ceux qui s’inquiètent des dérives que pourra avoir cette IA (remplacer les travailleurs)
Au-delà de ça : c’est encore une fois de plus des travailleurs africains qui font le sale boulot pour que les occidentaux puissent s’amuser à demander à Chat GPT d’inventer une chanson
Sama, une entreprise « éthique » ?
Le porte-parole de Sama annonce aussi ne pas avoir fixé d’objectifs de productivité, prendre très au sérieux les questions de santé mentale de ses travailleurs : « chez Sama, des programmes de bien-être et des conseils sont offerts, les travailleurs peuvent se retirer de tout travail sans être pénalisés, l’exposition à des contenus explicites a une limite et les informations sensibles sont traitées par des travailleurs spécifiquement formés pour le faire ». Sama dément aussi les affirmations du Time expliquant que les modérateurs auraient seulement 70 extraits à valider par jour et des salaires plus élevés que ceux annoncés par le Time
Fondatrice de Sama, Leila Janah, assure que son but était de « sortir des milliers de pauvres de la misère grâce à des emplois dans le secteur numérique ». Mais, à quel prix ? En regardant des vidéos traumatisantes ?
Vision très paternaliste / culte du bon occidental qui va sauver les africains. Bien que Sama aurait permis de sortir plus de 50k personnes de la pauvreté, dans ce cas-là, les travailleurs sont toujours payés une misère.
Argument de l’entreprise : ne pas augmenter trop les salaires, parce que sinon il y aura des conséquences en cascade comme l’augmentation des loyers.
« Faire de l’argent sur le dos des plus pauvres, sous un vernis humaniste qui commence à craqueler » (extrait d’un article de France 24)
Sama a obtenu le label « B Corp » (réponse à un certain nombre de critères de transparence, gouvernance et d’exigence sociales et environnementales). Cependant, le scandale Facebook de 2022 aurait pu coûter sa certification à l’entreprise. Sama a donc fini par se retirer de la modération 10 jours avant la parution de l’enquête du Time. Cependant, Sama avait déjà rompu son contrat avec l’entreprise OpenAI lorsqu’elle a découvert que l’IA ChatGPT avait envoyé des images d’une rares violences, en plus des textes aux modérateurs (de base, les modérateurs ne lisaient que des textes, ils ne modéraient pas de contenu vidéo)
Source : Enquête du Time
Rédactrice : Ambre