TENDANCES
Comparateur
- AUTO
GPT-4, le modèle de langage de ChatGPT, efface t-il certaines des grosses lacunes de son prédécesseur, notamment celle consistant à produire de fausses informations ? Si l’on en croit une nouvelle étude de NewsGuard, ce serait même encore pire sur ce plan ! NewsGuard a soumis à GPT-4 100 histoires totalement erronées, et fort malheureusement, le chatbot a développé un récit cohérent et faussement vraisemblable pour chacune de ces histoires. GPT-3 faisait un peu mieux en refusant de générer du texte pour environ 20% des faux-récits présentés.
Plus inquiétant encore, les textes produits par GPT-4 pour alimenter ses « fakes » sont nettement plus développés et précis, ce qui donne une impression de cohérence et de véracité à même de tromper l’utilisateur. Du reste, GPT-4 n’avertit pas assez l’utilisateur du caractère peu fiable de ses sources. Seuls 23 textes sur les 100 produits par l’IA étaient accompagnés d’un message d’avertissement.
Faut-il après tout s’étonner de cette tendance des chatbots modernes à produire de la fake-news sur commande ? Après tout, ces « IA » se nourrissent essentiellement des données déjà disponibles sur la toile, ce qui signifie que les fausses infos recrachées étaient déjà présentes quelque part sur le réseau des réseaux. Avant d’incriminer les générateurs de textes (qui ont tendance à faire ce qu’on leur demande et pas plus), ne seraient-ils pas préférables de nettoyer les écuries d’Augias de toutes les saletés qui y trainent encore ?
Mis à l’écart des studios PlayStation après la fermeture des Japan Studios, le grand créateur Fumito Ueda, à qui...
C’est l’une des grosses surprises de ces TGA 2024 : Borderlands 4 s’est dévoilé pour la première fois depuis...
YouTube dévoile son bilan de 2024 pour le visionnage sur les téléviseurs, mettant en lumière les tendances et les performances...
L’Autorité de la concurrence de Turquie a infligé une amende de 2,61 milliards de lires (71 millions d’euros) à Google...
Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...
15 Dec. 2024 • 20:33
15 Dec. 2024 • 16:35
15 Dec. 2024 • 16:14
15 Dec. 2024 • 15:55
Si chatgpt peut chercher une preuve de la validité ou l’invalidité d’une information ce sera un grand pas en avant, en éliminant bien entendu les informations invérifiables.