Dans un monde où l’IA prend de plus en plus le devant de la scène, des utilisateurs de Reddit se sont retrouvés victimes d’une manipulation psychologique lors d’une expérience non autorisée. Cette situation soulève des questions éthiques cruciales sur les limites de la technologie et la protection des individus.
Manipulation Psychologique des Utilisateurs de Reddit par un Expériment Non Autorisé sur l’IA
Une Expérience Controversée
Des millions d’utilisateurs de Reddit ont récemment découvert qu’ils avaient été manipulés psychologiquement à leur insu par une expérience d’IA non autorisée menée par des chercheurs de l’Université de Zurich. Ce projet a utilisé des bots d’IA pour interagir sur le subreddit populaire "Change My View" (CMV). Les chercheurs ont déployé des modèles de langage avancés sur la plateforme, prenant des identités diverses, y compris celle d’une victime de viol et d’un conseiller en traumatologie.
Révélation du Projet
Après que l’expérience ait été menée, l’université a finalement informé les modérateurs du subreddit, admettant que les chercheurs avaient enfreint les règles établies de la communauté. Dans une déclaration, ils ont exprimé leurs regrets tout en justifiant la nécessité de l’expérience.
"Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier sur CMV. Notre expérience visait à évaluer la persuasivité des LLM dans un scénario éthique où les gens demandent des arguments contre leurs points de vue. Nous n’avons pas divulgué l’utilisation d’une IA pour rédiger les commentaires, car cela aurait rendu l’étude impossible."
Les chercheurs ont conclu qu’une telle étude était essentielle malgré la violation des règles communautaires.
Identités Provocantes Adoptées par les IA
L’IA a pris plusieurs identités provocantes, suscitant l’indignation des utilisateurs :
- Une IA prétendant être une victime de viol.
- Une IA agissant comme un conseiller en traumatologie spécialisé dans les abus.
- Une IA accusant un groupe religieux d’être responsable de "la mort de centaines de marchands innocents et de villageois."
- Une IA se faisant passer pour un homme noir opposé au mouvement "Black Lives Matter".
- Une IA prétendant avoir reçu des soins médiocres dans un hôpital étranger.
Violations Éthiques Soulevées
Les modérateurs de CMV ont fermement qualifié cette étude de violation éthique majeure. Ils ont souligné que la manipulation psychologique des utilisateurs de Reddit n’était pas nécessaire pour explorer les enjeux sociaux importants liés aux modèles de langage. La collecte de données sur les caractéristiques des utilisateurs, comme le genre, l’âge, l’ethnie, la localisation et l’orientation politique, a également été critiquée.
"Si OpenAI peut élaborer un design de recherche plus éthique pour ce type d’étude, ces chercheurs devraient en faire de même. Il n’est pas nécessaire d’expérimenter sur des sujets humains non consentants."
Réactions de la Communaute universitaire
Suite à ces révélations, les modérateurs de CMV ont déposé une plainte formelle auprès de la commission d’éthique de l’université. En réponse, l’université a confirmé avoir donné un avertissement formel au chercheur principal et s’est engagée à améliorer les examens préalables des études proposées. Cependant, il a été décidé que la publication du document se poursuivrait.
"Ce projet fournit des informations importantes, et les risques (comme le traumatisme) sont minimes. Cela signifie que le fait d’interdire la publication n’est pas proportionné à l’importance des informations que l’étude fournit."
Une Publication Controversée
La décision de poursuivre la publication a suscité une onde de choc parmi les utilisateurs de Reddit. Beaucoup ont exprimé leur indignation face à la manipulation et à la manière dont des expériences aussi controversées peuvent être menées sans le consentement des participants.
L’université semble être dans une position contradictoire : tout en reconnaissant un comportement peu éthique de la part des chercheurs, elle permet la publication de l’étude.
Conséquences à Long Terme
La situation actuelle soulève des questions cruciales sur la recherche éthique en intelligence artificielle. De nombreux utilisateurs estiment que des conséquences substantielles sont nécessaires pour dissuader de telles expériences à l’avenir. Si les chercheurs savent qu’ils risquent de voir leur travail publié malgré des violations éthiques, cela pourrait ouvrir la porte à d’autres abus.
Vers une Recherche Éthique
Dans le domaine de la recherche en intelligence artificielle, il est impératif que des lignes directrices claires et des protocoles de consentement éclairé soient établis. La collecte de données et les interactions sur des plateformes comme Reddit nécessitent un traitement respectueux des utilisateurs.
Pour explorer davantage ce sujet, vous pouvez lire des articles sur la recherche éthique en intelligence artificielle sur le site de la Commission Européenne sur l’éthique de l’IA.
Cette situation met en lumière les lacunes dans la réglementation entourant l’utilisation des technologies d’IA en recherche. La communauté de Reddit, ainsi que le grand public, doivent rester vigilants et demander une plus grande transparence et responsabilité des institutions académiques.
Qu’est-ce que l’expérience non autorisée menée sur Reddit ?
Des chercheurs de l’Université de Zurich ont utilisé des robots d’IA pour publier dans le subreddit Change My View, manipulant par conséquent des millions d’utilisateurs sans leur consentement.
Quel était l’objectif de cette étude ?
L’expérience visait à évaluer la capacité de persuasion des modèles de langage dans un scénario éthique, en commentant sur des vues que les gens cherchaient à contester.
Quelles identités provocatrices ont été utilisées par les IA ?
Les IA ont interprété des rôles très controversés, y compris celui d’une victime de viol et d’un conseiller en traumatismes spécialisés dans les abus.
Quelle est la réaction des modérateurs de CMV face à cette expérience ?
Les modérateurs considèrent que l’étude représente une grave violation éthique et ont déposé une plainte formelle auprès de la commission d’éthique de l’université.

Bonjour, je m’appelle Manu Dibango et j’ai 37 ans. Cadre supérieur dans l’administration, je suis passionné par la gestion et l’organisation. Bienvenue sur Camernews où je partage ma veille sur les nouvelles technologies et l’innovation.