
C’est stupide ! Voici pourquoi.
Le « premier » site d’information au monde entièrement généré par l’IA est arrivé. Il s’appelle NewsGPT, et il semble être une idée absolument horrible. Le site, selon un communiqué de presse, est une alternative sans journaliste – et donc, selon lui, sans parti pris – aux informations conventionnelles créées par l’homme, créée dans le but de « [fournir] des informations impartiales et basées sur des faits aux lecteurs du monde entier ».
« Depuis trop longtemps », a déclaré Alan Levy, PDG de NewsGPT, dans le communiqué, « les chaînes d’information ont été minées par la partialité et la subjectivité des reportages. Avec NewsGPT, nous sommes en mesure de fournir aux téléspectateurs les faits et la vérité, sans aucun agenda caché ou parti pris. »
D’accord. Bien que nous comprenions que beaucoup de gens soient frustrés par le cycle moderne des informations, il y a un million de problèmes avec ce que fait ce type, le moindre étant qu’il y a des problèmes de transparence flagrants ici – ce qui est assez incroyable, étant donné tout ce contre quoi il prétend s’élever.

Tout d’abord, alors que son titre suggère qu’il pourrait utiliser une version du GPT d’OpenAI – le Large Language Model (LLM) qui alimente le chatbot viral ChatGPT d’OpenAI – Alan Levy ne révèle jamais le programme d’IA qu’il utilise pour alimenter NewsGPT. Tout ce que dit le communiqué, c’est que NewsGPT est alimenté par « des algorithmes d’apprentissage automatique et une technologie de traitement du langage naturel de pointe » qui seraient « capables d’analyser en temps réel les sources d’information pertinentes du monde entier ».
« Il utilise ensuite ces données », lit-on dans le communiqué, « pour créer des articles et des rapports d’actualité qui sont précis, à jour et impartiaux. »
Super. Bien sûr. Mais encore une fois : qu’est-ce que c’est ? C’est important ! Les logiciels d’IA ne naissent pas par hasard. Les modèles sont conceptualisés, construits et programmés par des humains, et révéler quels sont les humains qui fabriquent la technologie sous-jacente semble être assez important pour la prétendue mission d’Alan Levy.
Lorsque Futurism a contacté NewsGPT pour un commentaire, tout ce qu’un porte-parole a dit, c’est qu’ils utilisent une « combinaison de programmes d’IA », ce qui ne répond pas à la question (ils se sont également vantés qu’une « partie de cet e-mail est écrite par l’IA », sans préciser laquelle).
En ce qui concerne la technologie sous-jacente, nous ne nous préoccupons pas seulement de savoir qui la construit. De ChatGPT à Bing Search en passant par la mystérieuse machine de journalisme IA de CNET, les IA génératrices de langage sont connues pour leur tendance à halluciner – ou, en d’autres termes, à inventer de la merde. Elles ne savent pas ce que les mots veulent dire, elles se contentent de prédire ce qui va suivre dans une phrase, et vont même jusqu’à inventer des sources et des chiffres bidons pour étayer leurs affirmations.
Pour sa part, NewsGPT a admis que les hallucinations de la machine « pourraient » se produire. Mais comme il semble le dire, l’hallucination (parlons plutôt d’aberration) des machines n’est pas si grave. Ce ne sont que des informations « basées sur des faits », non ?
« Il n’y a pas de vérificateurs de faits humains. Nos nouvelles sont générées à 100 % par l’IA. Nous sommes conscients que des ‘hallucinations d’IA’ peuvent se produire et que l’IA est loin d’être une technologie parfaite », nous a dit l’entreprise par courriel. « Nous nous engageons à apprendre rapidement et à nous améliorer en permanence pour fournir les meilleures nouvelles sur l’IA que nous pouvons. »
À cette fin, lorsqu’il s’agit de nouvelles, les sources sont extrêmement importantes. À l’exception d’une mention occasionnelle dans le texte de l’origine d’un chiffre spécifique, les articles de NewsGPT ne renvoient à aucune de leurs références, offrant des faits et des chiffres présumés, qui doivent bien venir de quelque part – à moins, bien sûr, que la machine ne les invente – sans mention de leur origine.
Cela semble être un problème. Mais pour NewsGPT, ce n’est là aussi qu’une douleur croissante.
« NewsGPT et l’IA sont en phase d’hypercroissance », a déclaré l’entreprise. « Nous développons actuellement un système de « meilleures pratiques » en matière d’IA concernant les sources et les liens. »
Mais à ce propos, si la technologie ne fait que gratter, paraphraser et régurgiter des informations trouvées dans d’autres « sources d’informations pertinentes » sans en donner le crédit, n’est-ce pas tout simplement… du plagiat ? Des journalistes humains dont Levy dit que personne ne peut faire confiance ? Qui écrivent pour des entreprises qui, selon Levy, ont des « intentions cachées et des préjugés » ?
« En utilisant le processus de modélisation générative, NewsGPT génère des histoires nouvelles et originales », ajoutant que leur « modèle d’intelligence artificielle cherche également les textes qui correspondent trop étroitement au contenu existant et tente activement de les rectifier ».
Bien sûr. Mais encore une fois, nous le croirons quand nous le verrons. Mais étant donné que les leaders de l’IA chez OpenAI, Microsoft et Google n’ont pas encore trouvé de solution à ce problème – ou à tous ces problèmes, en fait – nous ne retiendrons pas notre souffle.
Nous serions également négligents de ne pas mentionner que si le biais humain existe, le biais de la machine existe certainement aussi. Bien qu’Alan Levy commercialise efficacement NewsGPT comme un reporter fantôme sans visage et apolitique, capable de trouver et de livrer uniquement les faits, les LLM et les outils similaires sont un miroir de l’humanité – souvent de ses pires aspects – et non l’antidote que des gens comme Alan Levy promettent d’être ; l’industrie de l’IA n’a pas encore créé un système qui ne soit pas criblé de préjugés profondément ancrés.
En fin de compte, lorsqu’il s’agit d’informations et de journalisme, les programmes d’IA générative peuvent un jour s’avérer avoir des qualités d’assistance utiles (l’approche de Wired, publiée cette semaine, est particulièrement respectable). Mais en l’état actuel des choses, nous n’avons pas encore vu de système miracle capable de fournir de manière sûre et fiable un journalisme précis et impartial sans intervention humaine – et même avec l’intervention humaine, ces programmes ont échoué à maintes reprises, en raison de leurs propres défauts ainsi que des nôtres.
Bref. S’il vous plaît, n’obtenez pas vos nouvelles de NewsGPT.
NDLR: Décidément, que l’information soit vraie ou fausse, vérifiée ou non, business is business.
https://futurism.com/news-site-completely-generated-ai
https://menafn.com/1105687300/Worlds-First-AI-Generated-News-Channel-Launches-Newsgpt