iPhone 17 : La Production Avance à Grands Pas pour un Lancement Exceptionnel en Septembre !
Les utilisateurs de Reddit soumis à une manipulation psychologique par une expérience IA non autorisée : découvrez la vérité choquante !
Des Millions d'Appareils AirPlay et CarPlay Vulnérables au Piratage par Wi-Fi : Protège-toi Maintenant !

Les utilisateurs de Reddit soumis à une manipulation psychologique par une expérience IA non autorisée : découvrez la vérité choquante !

Dans un monde où l’IA prend de plus en plus le devant de la scène, des utilisateurs de Reddit se sont retrouvés victimes d’une manipulation psychologique lors d’une expérience non autorisée. Cette situation soulève des questions éthiques cruciales sur les limites de la technologie et la protection des individus.

Manipulation Psychologique des Utilisateurs de Reddit par un Expériment Non Autorisé sur l’IA

Une Expérience Controversée

Des millions d’utilisateurs de Reddit ont récemment découvert qu’ils avaient été manipulés psychologiquement à leur insu par une expérience d’IA non autorisée menée par des chercheurs de l’Université de Zurich. Ce projet a utilisé des bots d’IA pour interagir sur le subreddit populaire "Change My View" (CMV). Les chercheurs ont déployé des modèles de langage avancés sur la plateforme, prenant des identités diverses, y compris celle d’une victime de viol et d’un conseiller en traumatologie.

Révélation du Projet

Après que l’expérience ait été menée, l’université a finalement informé les modérateurs du subreddit, admettant que les chercheurs avaient enfreint les règles établies de la communauté. Dans une déclaration, ils ont exprimé leurs regrets tout en justifiant la nécessité de l’expérience.

"Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier sur CMV. Notre expérience visait à évaluer la persuasivité des LLM dans un scénario éthique où les gens demandent des arguments contre leurs points de vue. Nous n’avons pas divulgué l’utilisation d’une IA pour rédiger les commentaires, car cela aurait rendu l’étude impossible."

Les chercheurs ont conclu qu’une telle étude était essentielle malgré la violation des règles communautaires.

Vous aimerez aussi :  Incroyable Bon Plan : Le Google TV Streamer à Seulement 79 $ - Ne ratez pas Cette Offre Exceptionnelle !

Identités Provocantes Adoptées par les IA

L’IA a pris plusieurs identités provocantes, suscitant l’indignation des utilisateurs :

  • Une IA prétendant être une victime de viol.
  • Une IA agissant comme un conseiller en traumatologie spécialisé dans les abus.
  • Une IA accusant un groupe religieux d’être responsable de "la mort de centaines de marchands innocents et de villageois."
  • Une IA se faisant passer pour un homme noir opposé au mouvement "Black Lives Matter".
  • Une IA prétendant avoir reçu des soins médiocres dans un hôpital étranger.

Violations Éthiques Soulevées

Les modérateurs de CMV ont fermement qualifié cette étude de violation éthique majeure. Ils ont souligné que la manipulation psychologique des utilisateurs de Reddit n’était pas nécessaire pour explorer les enjeux sociaux importants liés aux modèles de langage. La collecte de données sur les caractéristiques des utilisateurs, comme le genre, l’âge, l’ethnie, la localisation et l’orientation politique, a également été critiquée.

"Si OpenAI peut élaborer un design de recherche plus éthique pour ce type d’étude, ces chercheurs devraient en faire de même. Il n’est pas nécessaire d’expérimenter sur des sujets humains non consentants."

Réactions de la Communaute universitaire

Suite à ces révélations, les modérateurs de CMV ont déposé une plainte formelle auprès de la commission d’éthique de l’université. En réponse, l’université a confirmé avoir donné un avertissement formel au chercheur principal et s’est engagée à améliorer les examens préalables des études proposées. Cependant, il a été décidé que la publication du document se poursuivrait.

"Ce projet fournit des informations importantes, et les risques (comme le traumatisme) sont minimes. Cela signifie que le fait d’interdire la publication n’est pas proportionné à l’importance des informations que l’étude fournit."

Une Publication Controversée

La décision de poursuivre la publication a suscité une onde de choc parmi les utilisateurs de Reddit. Beaucoup ont exprimé leur indignation face à la manipulation et à la manière dont des expériences aussi controversées peuvent être menées sans le consentement des participants.

Vous aimerez aussi :  Découvrez les Meilleurs Jeux Indépendants : Lumino City, Towaga, Riven et LIMBO à Essayer Absolument !

L’université semble être dans une position contradictoire : tout en reconnaissant un comportement peu éthique de la part des chercheurs, elle permet la publication de l’étude.

Conséquences à Long Terme

La situation actuelle soulève des questions cruciales sur la recherche éthique en . De nombreux utilisateurs estiment que des conséquences substantielles sont nécessaires pour dissuader de telles expériences à l’avenir. Si les chercheurs savent qu’ils risquent de voir leur travail publié malgré des violations éthiques, cela pourrait ouvrir la porte à d’autres abus.

Vers une Recherche Éthique

Dans le domaine de la recherche en intelligence artificielle, il est impératif que des lignes directrices claires et des protocoles de consentement éclairé soient établis. La collecte de données et les interactions sur des plateformes comme Reddit nécessitent un traitement respectueux des utilisateurs.

Pour explorer davantage ce sujet, vous pouvez lire des articles sur la recherche éthique en intelligence artificielle sur le site de la Commission Européenne sur l’éthique de l’IA.


Cette situation met en lumière les lacunes dans la réglementation entourant l’utilisation des technologies d’IA en recherche. La communauté de Reddit, ainsi que le grand public, doivent rester vigilants et demander une plus grande transparence et responsabilité des institutions académiques.

Qu’est-ce que l’expérience non autorisée menée sur Reddit ?

Des chercheurs de l’Université de Zurich ont utilisé des robots d’IA pour publier dans le subreddit Change My View, manipulant par conséquent des millions d’utilisateurs sans leur consentement.

Quel était l’objectif de cette étude ?

L’expérience visait à évaluer la capacité de persuasion des modèles de langage dans un scénario éthique, en commentant sur des vues que les gens cherchaient à contester.

Vous aimerez aussi :  Découvrez le OnePlus 13R : Snapdragon 8 Gen 3 Révélé dans Une Liste Amazon!

Quelles identités provocatrices ont été utilisées par les IA ?

Les IA ont interprété des rôles très controversés, y compris celui d’une victime de viol et d’un conseiller en traumatismes spécialisés dans les abus.

Quelle est la réaction des modérateurs de CMV face à cette expérience ?

Les modérateurs considèrent que l’étude représente une grave violation éthique et ont déposé une plainte formelle auprès de la commission d’éthique de l’université.

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use
Add a comment Add a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Previous Post

iPhone 17 : La Production Avance à Grands Pas pour un Lancement Exceptionnel en Septembre !

Next Post

Des Millions d'Appareils AirPlay et CarPlay Vulnérables au Piratage par Wi-Fi : Protège-toi Maintenant !