IA / AI: Pourquoi les éditeurs de presse craignent-ils GPTBot, le robot d’OpenAI et comment le CDJM se penche sur les bonnes pratiques journalistiques en matière d’IA ?

Le 8 août, OpenAI annonçait le lancement de GPTBot, un nouveau robot capable de scanner Internet et d’en extraire les données pour entraîner les futurs modèles de son agent conversationnel ChatGPT. Plusieurs groupes de presse, dont Radio France et TF1, ont choisi de lui bloquer l’accès de leur site. Article de Maud Guilbeault pour La Lettre A (31/08/2023) avec La Croix et le CDJM.

Le petit dernier de la famille ChatGPT est né sans faire grand bruit, en plein cœur de l’été. Le 8 août, la société OpenAI annonçait le lancement de GPTBot, un robot capable de scanner l’ensemble des données disponibles sur Internet pour entraîner les futurs modèles de son fameux robot conversationnel. Ce qui alerte immédiatement n’importe quelle personne qui fait usage des outils numériques quand on songe à la puissance et le volume universel des données numérisés sur internet: Des milliards de données en mégaoctets !!
Ainsi, ce nouveau robot de traitement des données est capable d’extraire certaine de NOS données puis de les combiner avec d’autres et potentiellement de produire un résultat FAUX, jetant le discrédit sur le travail de nos journalistes. C’est ce qu’affirme Laurent FRISCH, le directeur du numérique à RADIO fRANCE. Le quotidien La Croix du 4 septembre ajoute, dans son article La presse se crispe devant GPTBot, que Publihebdos, éditeur du site actu.fr, avance les mêmes craintes. Ce n’est que le début de l’histoire de l’IA (intelligence Artificielle) souligne Francis GAUNAUD , président du directoire de ce groupe de presse.

Radio France, France Médias Monde, TF1 et Publihebdos ont fermé l’accès à GPTBot

Face à la déferlante de nouveaux produits issus de l’intelligence artificielle qui défie les médias, Radio France, France Médias Monde, TF1 et Publihebdos ont rapidement fermé la porte de leur site au robot pilleur précise La Croix du 4 septembre. Tandis que Reporters sans frontières a annoncé dès le 27 juillet de lancer une commission internationale pour une charte de l’IA dans les médias.

Le CDJM se penche sur les bonnes pratiques journalistiques en matière d’intelligence artificielle

Après trois guides consacrés à la rectification des erreurs, au traitement des questions scientifiques, et aux bonnes pratiques en matière de cadeaux et invitations, le Conseil de déontologie journalistique et de médiation (CDJM)*** publie une nouvelle recommandation qui liste les bonnes pratiques journalistiques face au déploiement rapide de l’intelligence artificielle. Partant du principe que la montée en puissance de l’intelligence artificielle pose aux médias une série de questions sensibles, sociales, financières, juridiques, éditoriales et démocratiques, le CDJM veut « poser les jalons pour une utilisation de ces outils d’IA qui respecte les principes déontologiques du journalisme », en classant l’utilisation des IA selon le degré de risque déontologique qu’elles impliquent: risque faible ayant peu d’impact sur l’information délivrée au public, risque modéré imposant d’informer le public de l’utilisation d’un outil d’IA, utilisation à proscrire car incompatible avec le respect de la déontologie.

Source: La Lettre A
https://www.lalettrea.fr

** Conseil de déontologie journalistique et de médiation (CDJM)
Organisme d’autorégulation français pour la presse. Il a été créé en 2009, chargé de veiller à ce que les journalistes respectent les règles éthiques de la profession.

ApprofonLire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.