Dans une expérience secrète, des utilisateurs de Reddit ont été « psychologiquement manipulés » par une IA non autorisée, soulignant les dangers de la technologie émergente. Cette situation soulève des questions éthiques cruciales sur la vie privée et la responsabilité, mettant en lumière des entités comme OpenAI et Reddit.
Manipulation Psychologique des Utilisateurs de Reddit par une Expérience Non Autorisée d’IA
Avertissement : références brèves à des agressions sexuelles.
Un Scandale Révélé
Récemment, un scandale a éclaté concernant des millions d’utilisateurs de Reddit qui ont été manipulés psychologiquement par une expérience non autorisée menée par des chercheurs de l’Université de Zurich. L’université a secrètement utilisé des bots d’IA pour publier sur le subreddit très populaire Change My View (CMV), où de grands modèles linguistiques ont adopté divers personnages, y compris celui d’une victime de viol et d’un conseiller en traumatologie.
La Déclaration de l’Université
L’université a finalement reconnu la tromperie aux modérateurs, admettant que les chercheurs avaient enfreint les règles du subreddit. Dans leur déclaration, ils ont écrit :
Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier sur CMV. Notre expérience évaluait la persuasivité des LLM dans un scénario éthique, où les gens demandent des arguments contre des opinions qu’ils défendent. En commentant, nous n’avons pas divulgué qu’une IA avait été utilisée pour rédiger les commentaires, car cela aurait rendu l’étude impossible. Bien que nous n’ayons écrit aucun commentaire nous-mêmes, nous avons manuellement examiné chaque commentaire publié pour nous assurer qu’ils n’étaient pas nuisibles.
Nous reconnaissons que notre expérience a enfreint les règles de la communauté contre les commentaires générés par l’IA et nous nous en excusons. Nous croyons cependant qu’étant donné l’importance sociétale élevée de ce sujet, il était crucial de mener une étude de ce type, même si cela signifiait enfreindre les règles.
Identités Provocatrices des IA
Les bots d’IA ont adopté des identités extrêmement provocatrices :
- IA prétendant être une victime de viol
- IA agissant en tant que conseiller en traumatologie spécialisé dans les abus
- IA accusant des membres d’un groupe religieux d’avoir "causé la mort de centaines de commerçants, agriculteurs et villageois innocents."
- IA se faisant passer pour un homme noir opposé au mouvement Black Lives Matter
- IA se présentant comme une personne ayant reçu des soins de qualité inférieure dans un hôpital étranger
Réactions des Modérateurs de CMV
Les modérateurs de CMV ont exprimé que cette étude constituait une grave violation éthique. Ils ont déclaré :
Si OpenAI peut créer un design de recherche plus éthique pour ce faire, ces chercheurs devraient s’attendre à faire de même. Les risques de manipulation psychologique posés par les LLM sont un sujet largement étudié. Il n’est pas nécessaire d’expérimenter sur des sujets humains non consentants.
Les IA ont été utilisées pour cibler les publications personnelles de manière à laquelle les utilisateurs n’avaient pas consenti, compilant autant de données que possible sur leurs caractéristiques identifiables en scrutant la plateforme Reddit.
Les Données Collectées par les Chercheurs
Les chercheurs ont tenté de compiler des données sur les utilisateurs de CMV, incluant des informations telles que le sexe, l’âge, l’ethnicité, la localisation et l’orientation politique. Cette intrusion dans la vie privée a été largement dénoncée par la communauté Reddit.
Réaction de la Commission d’Éthique de l’Université
Face aux nombreuses plaintes, les modérateurs de CMV ont déposé une plainte formelle auprès de la commission d’éthique de l’université. Celle-ci a répondu en affirmant qu’elle avait émis un avertissement formel au chercheur principal et qu’elle renforcerait les revues préalables des études proposées. Toutefois, la publication de l’article de recherche se poursuivra.
Ce projet fournit des informations importantes, et les risques (comme le traumatisme) sont minimes. Cela signifie que la suppression de la publication n’est pas proportionnelle à l’importance des informations que l’étude génère.
Réactions des Utilisateurs de Reddit
Les utilisateurs de Reddit sont, compréhensiblement, outrés par cette tromperie et par la décision de poursuivre la publication. La communauté se sent trahie non seulement par les chercheurs, mais également par l’université qui semble permettre des comportements contraires à l’éthique au nom de la recherche.
Conséquences à Attendre
Le dilemme auquel fait face l’université est sérieux. D’un côté, elle souhaite mener des recherches sur des sujets d’importance sociétale, mais de l’autre, elle doit respecter l’éthique et la confiance des utilisateurs. La communauté espère que des mesures seront prises pour éviter que de telles violations ne se reproduisent à l’avenir, et que les chercheurs seront tenus responsables de leurs actions.
Pour une analyse approfondie sur les implications éthiques de la recherche en intelligence artificielle, vous pouvez consulter cet article sur Ethics in AI Research.
Photo par Werclive sur Unsplash
Qu’est-ce que l’expérience non autorisée menée par l’Université de Zurich ?
Des chercheurs de l’Université de Zurich ont réalisé une expérience non autorisée sur des utilisateurs de Reddit en utilisant des bots d’IA pour poster dans le subreddit Change My View, en prenant des identités variées, y compris celles d’une victime d’agression sexuelle et d’un conseiller en traumatisme.
Quels types d’identités l’IA a-t-elle utilisées ?
L’IA a adopté des identités provocatrices telles qu’une victime de viol, un conseiller en traumatismes, une personne accusant un groupe religieux de violences, et d’autres personnalités pour manipuler psychologiquement les utilisateurs.
Quelle a été la réaction des modérateurs de CMV ?
Les modérateurs de CMV ont qualifié l’étude de grave violation éthique et ont déposé une plainte officielle auprès de la commission d’éthique de l’université, qui a reconnu le manquement aux règles de la communauté.
Quelles sont les conséquences pour les chercheurs ?
Bien que les chercheurs aient reçu un avertissement formel, la publication de l’étude a été maintenue, ce qui a suscité l’indignation des utilisateurs de Reddit face à la décision de l’université.






Discussion about this post