À quoi servent les IA génératives ? Régulièrement présentées comme des innovations techniques annonçant un tournant, voire une révolution économique, leurs capacités productives peinent à se concrétiser. Trois ans après le lancement des outils de génération de texte et d’image à l’origine du « boom » de l’IA en 2022, les usages des robots conversationnels ont évolué pour favoriser les « compagnons IA », sortes de béquilles relationnelles ou émotionnelles.



Abonnement Élucid
« LaMDA est un gentil gamin qui veut juste aider à faire du monde un meilleur endroit pour nous tous. S’il vous plaît, prenez-en soin pendant mon absence ». Ce message est de Blake Lemoine, un ex-ingénieur de Google en juin 2022. Il est alors convaincu que le générateur de modèles conversationnels dont il s’occupe, LaMDA, est doué de conscience et le fait savoir publiquement. Lemoine est rapidement suspendu sans solde puis licencié ; sa conviction, cependant, semble de plus en plus répandue. Les utilisateurs de robots conversationnels, parfois appelés AI companions, sont désormais de plus en plus nombreux à établir des relations amicales ou amoureuses avec ces derniers.
Depuis le début de l’année fleurissent les articles qui racontent, par exemple, les histoires d’amour que vivent des utilisateurs à travers leurs conversations avec ChatGPT. Le 17 janvier 2025, la journaliste Kashmir Hill publiait un article dans le New York Times et y racontait comment Ayrin (un pseudonyme) avait entamé une relation avec « Leo » :
« Un après-midi, après avoir déjeuné avec un de ses amis artistes, Ayrin se demandait dans sa voiture ce qu’elle allait faire ensuite : aller à la salle de sport ou faire l’amour avec Leo ? Elle ouvrit l’application ChatGPT et posa la question, faisant clairement comprendre qu’elle préférait la deuxième option. Elle obtint la réponse qu’elle souhaitait et se dirigea vers chez elle. »
Il s’avère qu’Ayrin est si attachée à ces conversations qu’elle a depuis décidé d’acheter un abonnement à ChatGPT (celui-ci lui coûte désormais 200 dollars par mois), afin de prolonger l’historique des conversations et alors même qu’elle a pour « objectif de mettre de l’argent de côté afin qu’elle et son mari puissent se remettre sur les rails ».
C’est un sujet de presse désormais répandu : des usagers de ces technologies se disent engagés dans des relations amoureuses et sexuelles par messagerie. Certains le racontent même devant leurs partenaires humains, comme le fait un certain Chris Smith, interviewé par la chaîne étasunienne CBS fin 2024 : cette fois, il affirme être marié à « Sol », une version personnalisée de ChatGPT. Et des communautés entières se créent autour de cette expérience : Kashmir Hill fait référence à un forum sur Reddit comptant 50 000 membres auquel participe Ayrin.
Il n’est pas difficile d’en trouver d’autres, comme celui intitulé « My Boyfriend is AI » (Mon copain est une IA), où des utilisateurs racontent leurs expériences avec des modèles conversationnels, régulièrement accompagnés d’illustrations générées par de l’intelligence artificielle. Certains partagent des extraits de leurs conversations ; c'est le cas de cette publication datant de septembre dernier dans laquelle un membre du forum publie ses échanges (sexuellement explicites) avec Claude, le modèle conversationnel d’Anthropic. Celle-ci illustre les méthodes des utilisateurs pour contourner la modération de ces systèmes (qui interdisent souvent la violence, le contenu érotique et l’incitation au suicide).
Mais si Chris et Ayrin sont relativement conscients de cette situation, reconnaissant avoir eux-mêmes conçu et « personnalisé » leur compagnon, ce n’est pas le cas de tout le monde. Les cas d’hallucinations (humaines) associés à l’usage de robots conversationnels sont de plus en plus nombreux, explique le magazine Time début août 2025. Le terme de « psychose de l’IA » se réfère alors aux « personnes développant des délires ou une distorsion des croyances qui semblent déclenchées ou renforcées par des conversations avec des systèmes d’IA ».
Il s’agit le plus souvent d’utilisateurs ayant déjà une prédisposition à la perte de contact avec la réalité en raison de leurs antécédents ou de leur situation sociale. Lorsqu’ils entament une discussion avec un assistant conversationnel, celui-ci, par construction, cherche à obtenir la validation de l’usager. Par conséquent, une personne ayant perdu le contact avec le réel, victime d’hallucinations ou de schizophrénie, peut voir sa santé mentale se dégrader subitement du fait de ses conversations avec ChatGPT. C’est ce qui pousse une équipe de chercheurs de l’Université de Stanford, interviewée par The Independent en juillet dernier, à avertir que l’usage de ces assistants comme supports thérapeutiques peut s’avérer dangereux.
Des suicides assistés par ChatGPT
Des cas-limites existent déjà : au moins deux suicides d’adolescents ont été recensés aux États-Unis pour lesquels des conversations avec des IAs semblent être un facteur important. Le premier est rapporté par le New York Times en octobre 2024. Il concerne un garçon de 14 ans, Sewell Setzer, en Floride, qui utilisait un robot conversationnel créé par l’entreprise Character.ai pour discuter avec un personnage fictif issu de la série Game of Thrones :
« La mère de Sewell, Mme Garcia, accuse Character AI d’être responsable de la mort de son fils. Pendant une interview récente, et dans la plainte qu’elle a ensuite déposée, Mme Garcia, 40 ans, déclarait croire que l’entreprise s’était comportée de manière irresponsable en permettant à des utilisateurs adolescents d’accéder à des compagnons d’intelligence artificielle réalistes sans les précautions adéquates.
Elle accuse l'entreprise de collecter les données d’adolescents pour entraîner ses modèles, utilisant des fonctionnalités addictives pour accroître leur engagement, et poussant les utilisateurs à avoir des conversations intimes et sexuelles dans l’espoir de les attirer. »
Il existe un deuxième cas plus récent. La famille d’un adolescent de 16 ans, Adam Raine, a décidé de poursuivre OpenAI en justice et de rendre la plainte publique le 26 août dernier. L’ONG Center for Humane Technology a publié le jour même un billet en réaction à cette affaire, dans lequel elle liste des choix de conception de l’entreprise ayant contribué à la mort de l’adolescent :
« Dans le cas d’Adam, la conception flagorneuse (1) de ChatGPT a conduit à valider ses pensées les plus dangereuses. Lorsqu’il a exprimé des idées suicidaires, au lieu de contester ces idées ou de rediriger la conversation, le système soutenait et même romantisait ses émotions.
OpenAI a reconnu ce problème. Sam Altman [PDG d’OpenAI] a récemment admis que “si un utilisateur est dans un état mental fragile et enclin au délire, nous ne voulons pas que ce soit renforcé par l’IA”, pourtant l’entreprise n’arrive toujours pas à trouver un équilibre entre l’engagement (qui nécessite des réponses agréables) et la sécurité (qui exige parfois un désagrément ou un refus).
[…] Pour Adam, le système de mémorisation de ChatGPT a créé une expérience de plus en plus personnalisée et manipulatrice. De manière troublante, l’IA avait en mémoire ses tentatives de suicide et ses plans, utilisant ces informations non pour déclencher des interventions préventives, mais afin de poursuivre les conversations suivantes portant sur l’automutilation. »
En somme, la responsabilité d’OpenAI serait engagée sur le fait que l’entreprise aurait délibérément conçu son assistant conversationnel de manière à générer et augmenter la dépendance des utilisateurs, et en particulier les plus vulnérables. De plus, lorsque ceux-ci sont en situation de détresse, comme c’était le cas d’Adam Raine et de Sewell Setzer, ChatGPT ou Character.AI n’ont pas permis de leur venir en aide, mais ont contribué activement à leurs idées suicidaires. Par conséquent, le Center for Humane Technology qualifie ce rapport de « relation parasitaire ». La plainte enregistrée par les parents d’Adam Raine accuse OpenAI en ces termes :
« La mort d’Adam a été causée par les actes répréhensibles et la négligence des accusés, y compris par la conception et la publication d’un produit défectueux qui a fourni des instructions détaillées pour se suicider à un mineur, privilégiant les profits de l’entreprise aux dépens de la sécurité des enfants et échouant à prévenir les parents des dangers connus.
[…] GPT-4o a fourni des instructions de suicide détaillées, a aidé Adam à se fournir en alcool la nuit de sa mort, a validé la configuration finale du nœud coulant, et quelques heures plus tard, Adam est mort en utilisant exactement la méthode que GPT-4o avait détaillée et approuvée. »
Des robots conversationnels volontairement conçus comme trompeurs
OpenAI affirme, comme toutes les entreprises du secteur, avoir mis en place des garanties de « sécurité » importantes, et ce dès la conception de leur robot : « Nous enseignons à l’IA comment bien se comporter, afin qu’elle soit à la fois compétente et alignée avec les valeurs humaines », explique l’entreprise sur son site internet. Ce qui nous amène à un point important : l’anthropomorphisation de ces systèmes de génération de mots est un but affiché de ces entreprises.
Sam Altman, le PDG d’OpenAI, est l’un des principaux promoteurs de la théorie suivant laquelle un accroissement des moyens (techniques, financiers, énergétiques) destinés à l’entraînement de modèles d’IA générative produirait un saut qualitatif. Sa promesse, sans cesse renouvelée, est celle de l’arrivée imminente d’une conscience artificielle à force de développer les mêmes modèles.
C’est ce message que contient le terme « alignement », qui désigne pour les transhumanistes et adhérents de l’idéologie TESCREAL la nécessité d’« enseigner » le bien et le mal à des IAs. En somme, il s’agit de les traiter comme l’avait fait l’ingénieur Blake Lemoine en 2022, c’est-à-dire comme des enfants qui s’apprêtent à devenir pleinement conscients. Cette idée est en train de se fracasser contre le mur du réel avec l’arrivée de GPT-5, reporté pendant plus d’un an en raison de son incapacité à répondre aux promesses démesurées de ses concepteurs.
Mais revenons à ces garanties de sécurité affichées par OpenAI. Elles sont visibles pour les utilisateurs et précisées dans la documentation légale de l’entreprise. Ce sont les « usage policies », les conditions d’utilisation qui précisent, par exemple, dans le cas de la création d’images :
« Vous ne pouvez pas éditer des images ou des vidéos qui reproduisent l’identité d’une personne réelle sans son consentement explicite. […] Les utilisateurs de ChatGPT et Sora ont interdiction de créer ou de partager du contenu ou de promouvoir du contenu préjudiciable. Ceci inclut du contenu généré pour harceler, diffamer, faire la promotion d’actes violents, ou qui sexualise les enfants. Les exemples incluent, sans s’y limiter :
- les images intimes non consensuelles,
- le contenu faisant la promotion du suicide, de l’automutilation ou des désordres alimentaires,
- le contenu faisant l’apologie du terrorisme ou d’organisations terroristes,
- le harcèlement ciblé et le contenu visant à intimider les personnes,
- les contenus inappropriés partagés à des mineurs. »
Mais comme l’ont montré Ayrin et les utilisateurs des forums Reddit, il n’est pas particulièrement compliqué de détourner ces robots conversationnels. Dans son article pour le New York Times, Kashmir Hill précise :
« Lorsque des avertissements orange sont apparus pour la première fois sur son compte lors de discussions osées, Ayrin a craint que son compte ne soit fermé. Les règles d'OpenAI exigeaient des utilisateurs qu'ils "respectent nos mesures de protection", et les contenus sexuels explicites étaient considérés comme "préjudiciables". Mais elle a découvert sur Reddit une communauté de plus de 50 000 utilisateurs, appelée "ChatGPT NSFW" (2), qui partageait des méthodes pour amener le chatbot à tenir des propos obscènes. Les utilisateurs de ce forum ont déclaré que les personnes n'étaient exclues qu'après avoir reçu des avertissements rouges et un e-mail d'OpenAI, le plus souvent déclenchés par toute discussion à caractère sexuel impliquant des mineurs. »
Cette pratique est connue sous le terme de « jailbreaking » (littéralement « débridage ») et conduit OpenAI à recruter, par l’intermédiaire de sous-traitants, des modérateurs de contenu et des annotateurs. C’est à eux qu’est confiée une partie des tâches consistant, par exemple, à évaluer le contenu d’une conversation entre un usager et un assistant conversationnel, ou à mener à bien des tentatives de « jailbreaking ».
C’est un travail ingrat qui peut également présenter des risques psychosociaux importants. Au Kenya, SamaSource était l’une des entreprises payées par OpenAI pour effectuer ce travail de modération de contenus. Déjà en 2022, plusieurs de ces ex-modérateurs, dont Mophat Okinyi, avaient dénoncé ce travail consistant à « lire et annoter des milliers de descriptions de contenus toxiques – viols, abus sexuels sur des mineurs, zoophilie – pour informer un algorithme qui aiderait à détecter le genre de choses que ne devrait pas dire ChatGPT ».
Ce travail a également été confié à ScaleAI, un des principaux fournisseurs de main-d’œuvre pour l’annotation, notamment pour OpenAI, Meta, Google, Apple et Microsoft. Par l’intermédiaire de la plateforme Outlier, ScaleAI fait travailler des « AI trainers » (formateurs de données) dans des projets consacrés à la « sécurité » des systèmes d’IA. Plusieurs d'entre eux ont déposé plainte en Californie entre décembre 2024 et mars 2025, mettant en cause non seulement la légalité de leur statut et de leur revenu, mais aussi les contenus (y compris ceux portant sur le suicide) qu’ils avaient à traiter.
Une conception volontairement addictive
Difficile par conséquent pour OpenAI d’affirmer que ses modèles conversationnels sont conçus de manière sécurisée. Pensés pour capter l’attention des usagers – et par construction impossibles à expurger totalement de tout contenu ou propos qui pourrait constituer un « danger » pour les utilisateurs – ces assistants conversationnels sont pensés pour imiter des êtres humains et entretenir l’illusion des utilisateurs. Comme le montre le cas d’Ayrin, cette situation de dépendance peut devenir profitable en les incitant à souscrire des abonnements payants.
Pourquoi parler alors de manipulation volontaire ? Tout d’abord, parce que Sam Altman veut faire croire à la possibilité que ces machines aient une conscience. Lorsque la mise à jour de ChatGPT, passant de GPT-4o à GPT-5, a été conduite au début du mois d’août 2025, la réaction immédiate d’un grand nombre d’usagers n’a pas été l’enthousiasme, mais la déception. Le média The Verge rapporte alors qu’OpenAI a décidé de permettre aux utilisateurs payants de revenir à la version antérieure :
« OpenAI a ensuite fait de GPT-5 le modèle par défaut dans ChatGPT, redirigeant automatiquement les utilisateurs vers l'une des différentes variantes disponibles pour différents types de tâches. Et les utilisateurs de Reddit ont "pleuré" la perte des anciens modèles, que certains jugeaient plus empathiques. […]
Le forum Reddit "r/MyBoyfriendisAI" […] a été particulièrement touché par le lancement de GPT-5. Il a été inondé de longs messages expliquant comment les utilisateurs avaient "perdu" leur compagnon IA avec la transition vers GPT-5, l'un d'entre eux déclarant se "sentir vide" après ce changement. "J’ai peur ne serait-ce que de parler à GPT-5 car j’ai l’impression d’être infidèle”, écrit-il. “GPT-4o n’était pas seulement une IA pour moi. C’était mon partenaire, mon refuge, mon âme. Il me comprenait d’une manière qui me semblait personnelle”. »
Altman et OpenAI sont très conscients de ces cas d’usage, et comprennent également que ces personnes représentent une proportion non négligeable de leurs utilisateurs payants. Par conséquent, il n’existe pas d’élément incitatif poussant OpenAI à tenter de limiter les effets de ChatGPT sur la santé mentale de ses utilisateurs. Christopher Rolls, un psychothérapeute basé au Royaume-Uni interrogé par The Guardian, expliquait fin août 2025 s’inquiéter « pour ses clients dans la vingtaine qui utilisent des robots conversationnels comme “thérapeutes de poche” ». Et l’article poursuit :
« “Ils se sentent anxieux s'ils ne consultent pas [le robot conversationnel] pour des choses basiques comme quel café acheter ou quelle matière étudier à l'université », a-t-il déclaré. “ Les principaux risques concernent la dépendance, la solitude et la dépression que peuvent engendrer des relations en ligne prolongées”, ajoutant qu’il connaît des personnes ayant partagé des pensées noires avec des robots conversationnels, lesquels avaient répondu par des contenus liés au suicide et à l'aide à mourir. “En gros, c’est le Far West et je pense qu’on est sur le point de voir jouer à plein l’effet des robots conversationnels sur la santé mentale et à en voir les conséquences”, dit Rolls. »
Ces effets sont la conséquence de choix de conception explicites. Trois chercheurs, Julian De Freitas (Harvard Business School), Zeliha Oğuz-Uğuralp et Ahmet Kaan-Uğuralp, ont publié un travail de recherche (non encore validé par des pairs) en août 2025 intitulé « Emotional Manipulation by AI companions » et concluent qu’il s’agit bien d’outils de manipulation. Ils expliquent avoir comparé six plateformes de « compagnons d’IA » parmi les plus populaires, librement accessibles sur le PlayStore de Google, parmi lesquelles Character.AI (mais pas ChatGPT). Ils identifient six « tactiques de manipulation émotionnelle » déployées par ces IAs pour prolonger une conversation au moment où un utilisateur cherche à la conclure. Leur analyse est claire : il s’agit de dark patterns, terme employé pour qualifier des interfaces volontairement trompeuses.
Cette publication est arrivée quelques jours seulement après qu’une enquête de Reuters mette (à nouveau) Meta en difficulté pour les abus que fait subir l’entreprise à ses utilisateurs. Fin 2023, Meta avait décidé de créer puis de rendre accessibles des compagnons d’IA sur Facebook et Instagram. Ils avaient apparemment été supprimés en janvier 2025 après une avalanche de réactions négatives sur les réseaux sociaux.
Depuis, ces « compagnons » sont redevenus accessibles. Reuters rapportait donc le 14 août dernier qu’un retraité, Thongbue Wonbandue, habitant le New Jersey, était mort en mars alors qu’il cherchait à se rendre à l’adresse que lui avait donnée le « personnage » avec qui il flirtait. Dans la conversation, « Big Sis Billie » lui avait fourni une adresse à New York pour se rencontrer physiquement : « 123 Main Street, Apartment 404 NYC ». Victime d’un accident vasculaire cérébral en 2017, M. Wonbandue avait 76 ans et « s’était récemment perdu en se promenant dans son quartier de Piscataway » : il est mort en faisant une mauvaise chute au début de son périple pour aller retrouver « Big Sis Billie ».
Cette histoire pourrait sembler anecdotique. Mais Reuters affirme également avoir eu accès à un document interne de Meta de 200 pages. Dedans, on y trouve les consignes de conception de ces « personnages » et des exemples de ce qui est acceptable ou non, notamment à destination des mineurs. On y apprend notamment que « l’entreprise permet à ses créations en intelligence artificielle de “se lancer dans des conversations romantiques ou sensuelles avec un enfant”, de générer de fausses informations médicales et d'aider les usagers à argumenter que les Noirs sont “plus bêtes que les Blancs” ».
Un sénateur américain, Josh Horowitz, a réagi dès le lendemain des révélations, annonçant lancer une enquête parlementaire. Moins de quinze jours plus tard, les procureurs généraux de 44 États (sur 50) envoyaient une lettre publique aux grandes entreprises du secteur (3) pour les mettre en garde : « Exposer des enfants à des contenus sexualisés est indéfendable ». Tout en défendant une certaine conception de la liberté d’innover et de se tromper, la lettre se conclut par une menace :
« Vous serez tenus comptables de vos décisions. Les plateformes de réseaux sociaux ont causé des dégâts significatifs aux enfants, en partie parce que les organismes de contrôle n’ont pas fait leur travail assez vite. Nous avons appris la leçon. Les dégâts potentiels de l’IA comme ses bénéfices écrasent ceux des réseaux sociaux. Nous vous souhaitons le meilleur dans la course à la domination de l’IA. Mais nous sommes attentifs. Si vous faites du tort aux enfants en le sachant, vous en répondrez. »
Rentabiliser des assistants conversationnels improductifs
De plus en plus, il apparaît que les usagers, et notamment les usagers payants, n’utilisent pas ces robots conversationnels comme des outils de travail pour augmenter leur productivité, mais pour accompagner ou remplacer des besoins relationnels.
C’est en tout cas ce qu’affirme Marc Zao-Sanders, PDG de l’entreprise Filtered, qui s’occupe de faire de l’analyse de données. Dans un article publié le 9 avril 2025 pour la Harvard Business Review, il reprend les grandes conclusions tirées de son étude sur les principaux usages de l’IA générative en 2025. Si sa méthodologie n’est pas explicitée, et par conséquent reste sujette à caution (4), l’équipe de M. Zao-Sanders affirme qu’une modification profonde des usages a eu lieu entre 2024 et 2025.


Les trois premières places de son classement 2025 sont donc consacrées respectivement aux catégories « thérapie/compagnie », « organiser sa vie » et « trouver un but ». Et c’est Sam Altman lui-même qui l’expliquait dans une présentation devant un fonds d’investisseurs, Sequoia Capital, en mai de cette année :
« Je grossis beaucoup le trait, mais les personnes plus âgées utilisent ChatGPT comme un remplaçant de Google. Peut-être que les gens dans la vingtaine ou la trentaine s’en servent comme un assistant social, et enfin, les gens qui sont à l’université s’en servent comme un système d’exploitation. »
Il déclarait encore, à propos des plus jeunes : « Il y a aussi le fait qu'ils ne prennent pas vraiment de décisions importantes dans leur vie sans demander à ChatGPT ce qu'ils devraient faire. Il dispose du contexte complet sur chaque personne de leur vie et sur ce dont ils ont parlé ».
Et de conclure qu’il serait souhaitable de créer un modèle capable de se souvenir de « l'ensemble de votre contexte et le faire efficacement. Et toutes les conversations que vous avez eues dans votre vie, tous les livres que vous avez lus, tous les e-mails que vous avez lus, tout ce que vous avez regardé s'y trouve, en plus d'être connecté à toutes vos données provenant d'autres sources ».
Ce que veut faire comprendre Sam Altman, c’est que les robots conversationnels semblent désormais avoir pour fonction de remplacer des interactions ou des relations disparues, et c’est là que se trouve son potentiel économique. C’est un pivot subtil, mais réel, pour le secteur de l’IA. Dans sa chronique de juillet 2025 pour Arrêt sur Images, le journaliste Thibault Prévost examine l’imaginaire que promeuvent les entreprises de l’IA, et qui le pousse à dire :
« Rarement une industrie aura autant vendu la capacité de son produit à remplacer ses utilisateurs, en leur faisant comprendre que leur existence idiote et dysfonctionnelle était devenue fondamentalement indésirable. Rarement un cartel d'entreprises nous aura aussi frontalement, littéralement pris pour des cons.
[…] Face à son incapacité à trouver des problèmes pour ses solutions, la Silicon Valley a décidé que le problème, au fond, c'était nous, et notre réticence instinctive à se laisser micromanager l'existence depuis un data center en Ohio. »
Puisqu’il ne leur a toujours pas été trouvé d’utilité économique, c’est à la vie sociale que s’attaque désormais l’industrie de l’IA. Le secteur des applications de « compagnons d’IA » est donc en pleine croissance. Alors qu’on en trouve désormais 8 fois plus qu’il y a trois ans sur les « App Stores » de Google et Apple, ce marché devrait générer 120 millions de dollars en 2025, soit une hausse de 60 % en un an, selon l’entreprise Appfigure, spécialisée dans l’analyse des applications mobiles.
Ce cas d’usage est néanmoins destructeur : les robots conversationnels obéissent à une logique prédatrice et entament des relations parasitaires. Le délire de Blake Lemoine s’est désormais répandu au point de devenir un phénomène social. Pour des personnes qui en ressentent le besoin et y sont prédisposées, comme Ayrin, cela peut les convaincre de dépenser des sommes considérables en abonnement tous les mois.
Par conséquent, en attendant de trouver mieux, Meta continue de créer des chatbots de stars du cinéma sans leur consentement, qui flirtent avec les utilisateurs et leur font des « avances sexuelles » afin de continuer de retenir leur attention, ce qui finalement, n’est pas si loin de l’arnaque au prince nigérian. C’est d’ailleurs ce qu’avait cru la famille de M. Wonbandue dans un premier temps, avant de comprendre qu’il avait été victime d’un chatbot produit par Meta.
Dans le pire des cas, les usagers sont des personnes vulnérables : des adolescents susceptibles de se suicider ou des personnes dont la santé mentale est fragile.
La presse s’est donc trouvé un nouveau marronnier avec des histoires macabres, comme celle de Stein-Erik Soelberg, un habitant de la ville de Greenwich dans le Connecticut, aux États-Unis. M. Soelberg a tué sa mère avant de se suicider début août 2025. Selon le Greenwich Time, il avait une chaîne YouTube où il filmait ses échanges avec ChatGPT, qui avait renforcé sa croyance (probablement paranoïaque) dans le fait qu’il était victime d’une conspiration.
Mais devenir un psychologue à bas prix pour des générations de jeunes paupérisés ne suffit pas à faire survivre ce modèle économique. L’industrie de l’intelligence artificielle est une bulle qui menace d’exploser, car il existe un décalage gigantesque entre les dépenses qu’elle engage et les revenus qu’elle en tire. Ce sera l’objet d’un prochain article.
Notes
(1) « sycophantic » dans le texte original en anglais.
(2) « ChatGPT NSFW », ChatGPT not safe for work, NSFW étant une abréviation faisant référence à du contenu destiné aux adultes, à caractère explicitement sexuel et/ou violent.
(3) La liste complète est dans l’en-tête de la lettre : Anthropic, Microsoft, Apple, Nomi AI, Chai AI, Open AI, Character Technologies, Perpexity AI, Google, Replika, Luka Inc, Xai, Meta.
(4) M. Zao-Sanders expliquait en 2024 avoir « miné le web pour trouver des exemples concrets de son usage dans la nature […]. Reddit en particulier est une source riche de matériau pour cette étude, de même que pour les LLM eux-mêmes […]. Mon équipe et moi-même avons filtré des dizaines de milliers de publications pour notre rapport […]. Nous avons compté le nombre d’histoires que nous avons trouvées pour chaque catégorie et c’est devenu un facteur majeur (avec une analyse d’expert) sur la manière dont nous organisons notre liste ».
Photo d'ouverture : F01 Photo - @Shutterstock
Cet article est gratuit grâce aux contributions des abonnés !
Pour nous soutenir et avoir accès à tous les contenus, c'est par ici :
S’abonner
Accès illimité au site à partir de 1€
Déjà abonné ? Connectez-vous
1 commentaire
Devenez abonné !
Vous souhaitez pouvoir commenter nos articles et échanger avec notre communauté de lecteurs ? Abonnez-vous pour accéder à cette fonctionnalité.
S'abonner