ChatGPT : la tentation des médias ?


Il n’y a pas que les employés de bureau, les étudiants – certains pris la main dans le sac -, des juges (euh ?!), voire des soupirants en mal d’inspiration poétique qui se tournent vers ChatGPT pour aider ou suppléer à leur imagination, à leur savoir, pour gagner du temps, se faciliter la tâche…

Certains médias – mais oui ! – y sacrifient. Ils le font plus ou moins ouvertement, plus ou moins ponctuellement. Non pas que la pratique de la génération automatique de textes soit nouvelle dans le monde de la presse – cette pratique, certes limitée et alimentée par des informations factuelles, relativement basiques, est déjà présente dans le paysage depuis de nombreuses années. On a ainsi vu s’installer ici à la là publication d’articles ou de brèves de type nouvelles sportives, résultats électoraux, voire même comptes-rendus boursiers (c’est la cas par exemple, pour ces derniers, de certaines productions de Reuters ou de Bloomberg)… 

Toutefois, ChatGPT et son intelligence artificielle conversationnelle générative donnent soudain à ces pratiques une nouvelle dimension. Avec des risques qui n’ont rien d’anodin – pour la fiabilité des contenus, la crédibilité des auteurs et/ou éditeurs, pour la qualité de l’information qu’en retirent les lecteurs. Sans parler bien entendu des aspects purement déontologiques que cela implique pour des organes de presse et des journalistes.

Une pratique qui s’installe?

Certains éditeurs de presse ont déjà annoncé vouloir recourir à ce chatbot ChatGPT pour générer du contenu. Ainsi l’américain BuzzFeed qui s’en servira pour générer des quiz. En promettant toutefois qu’il ne servira pas à la rédaction d’articles. Par contre, de la “personnalisation de contenus à destination des lecteurs” est bel et bien à l’ordre du jour.

D’autres ont déjà franchi la ligne. CNET par exemple, un site d’informations technologiques, a admis avoir succombé. Mais des erreurs – flagrantes ou non – ayant été détectées dans les publications “journalistiques” produites par l’outil IA, l’éditeur a annoncé vouloir “mettre son expérience en mode pause”.

Dans certains médias, les erreurs, raccourcis, généralisations, simplifications, voire amalgames de notions que peut produire ChatGPT peuvent avoir des conséquences nettement plus sérieuses. C’est ce qui est arrivé lors de la publication d’un article de nature médicale généré par IA, publié par The Men’s Journal (USA). Après analyse, le directeur du centre de médecine de l’université de Washington a émis ce commentaire : « There is just enough proximity to the scientific evidence and literature to have the ring of truth but there are many false and misleading notes”. Plus qu’inquiétant…

Restons aux Etats-Unis car, outre-Atlantique, d’autres médias ont recours à l’IA pour leurs articles. Exemple: le très populaire Sports Illustrated, qui s’en sert pour rédiger des contenus ou… pour générer des idées. C’est en tout cas ce qu’affirme un article publié dans le Wall Street Journal.

Objectif que dit poursuivre le magazine sportif en recourant à des robots IA : “support content workflows, video creation, newsletters, sponsored content and marketing campaigns”.

Désinformation et illusion

A l’analyse, les textes générés par ChatGPT s’avèrent parfois – souvent ? – erronés, basés sur des “vérités” génériques, non conceptualisées, nourries de raccourcis. Les critiques émises par des observateurs spécialisés et des chercheurs n’ont pas manqué ces derniers jours. Et descendent l’outil en flammes.

“Un générateur de foutaises”, selon un professeur d’informatique de Princeton. Qui explique son jugement comme suit : “ChatGPT est entraîné pour produire des textes plausibles. Il excelle dans l’exercice de persuasion mais il n’est pas entraîné pour produire des affirmations véridiques. S’il en produit, c’est un effet secondaire par rapport à sa destination première qui est d’être plausible et persuasif”. Et… “il n’y a aucun moyen d’être tout à fait certain que ses affirmations sont vraies ou fausses… […] Si vous considérez par ailleurs que cet outil n’a pas une bonne notion de la vérité, on a là les ingrédients d’un désastre”.

Autre verdict implacable, celui de Benoît Bergeret, directeur exécutif du Metalab, de la business school française ESSEC, et co-fondateur du Hub France IA: ChatGPT, ce n’est, selon lui, rien moins qu’un “illusionniste du sens”.

“Le système évalue les requêtes reçues de l’utilisateur et construit une réponse correcte – sur le plan grammatical. Il ne s’agit pas de sens, de fond, mais uniquement de forme !”, prévient-il dans un article publié sur le site L’ADN. “Illusion dangereuse”. Lien vers l’article.

L’écueil – et la limitation – des LLM (large language models, ou grands modèles linguistiques en français), engeance dont relève ChatGPT, réside dans le fait que “pour maîtriser l’utilisation du langage dans la vie réelle, il leur faudrait incorporer de multiples capacités cognitives non spécifiques au langage, mais requises pour la modélisation de la pensée.”

De là, l’impression qu’ils donnent de discourir alors qu’ils ne font que formaliser des bribes de textes picorés dans l’immense réservoir qu’on leur a injecté pour les entraîner et les nourrir. Une illusion donnée – et perçue – dont Benoît Bergeret explique certains des risques dans l’article précité. Risque de véracité. Risque de mauvaise compréhension d’un sujet. Risque d’erreur de jugement si on se base sur les réponses, sans discernement. Risques légaux si une décision erronée est prise par le détenteur d’une responsabilité quelconque.

A tout bon entendeur, auteur, créateur et lecteur…



Email Print Share Tweet Follow Share