Source [Fdesouche] : Une enquête déconcertante. D’après une note du laboratoire d’idées Terra Nova, commentée par Le Parisien dans un article paru ce dimanche 26 novembre, ChatGPT serait biaisé. Ainsi, « quand on lui pose des questions sur des sujets politiques clivants, le chat-bot a une opinion, même s’il n’est pas autorisé à l’exprimer clairement », indique Fipaddict, un enseignant en économie et en institutions politiques à l’origine de l’enquête.
Soucieux de découvrir « l’inconscient de ChatGPT », ce chercheur a posé au robot conversationnel une série de questions, à 1 000 reprises. Systématiquement, les réponses de ChatGPT penchent à gauche. Même si à l’origine, l’intelligence artificielle d’Open IA « n’est pas codée politiquement », sa vision du monde dépend de la façon dont l’entreprise l’a entraînée.
« Le risque, c’est de manipuler les opinions »
Résultat, ChatGPT « est libéral sur tout ce qui concerne les mœurs, et assez modéré sur les institutions et l’économie ». En définitive, le robot pense comme un « macroniste de 2017 ». Cette conclusion laisse songeur quant à la manipulation des populations. « Le risque, c’est de manipuler les opinions de manière explicite ou insidieuse », craint Fipaddict, qui appelle à une « législation un peu plus stricte ».
- Migrants à Bélâbre (36) : Le maire décrète que...
- Colombe, l’électrice RN au RSA qui a ému la gau...
- Brevet, Bac, CAP… Les taux de réussite gonflés...
- Paris : Sonia, épouse de djihadiste, revenante...
- Un ministre : « Les retraités nous quittent. I...
- Les étrangers à l’origine de 77% des viols éluc...
- Un masque sacré restitué par la Belgique à la R...
- “Ca la fout mal” : Une fuite d’eau au Centre aq...
- “Une blague de mauvais goût” : un migrant cland...
- Crise à Haïti : malgré les demandes des Nations...