TENDANCES
Comparateur
- AUTO
Le marketing fait faire bien des folies, notamment lorsqu’il s’agit d’enjoliver les clichés capturés par sa dernière génération de flagships. Samsung, qui n’en est pas à son coup d’essai dans le genre, aurait largement exagéré les capacités réelles de la fonction Space Zoom du Galaxy S23. Alors certes, le zoom x100 du S23 permet d’approcher au plus près de notre satellite artificiel, mais l’image en sortie ne serait bien souvent que le produit d’une petite tambouille interne et pas véritablement un exploit de l’ISP (image signal processor).
Détails, couleur, rien ne colle
Histoire de tirer les choses au clair, un utilisateur du S23 a détaillé sur Reddit sa méthode pour révéler le fake. Prenez donc un cliché déjà existant de la Lune, baissez la définition à 170×170 pixels et appliquez au tout un flou gaussien qui ne permet plus de distinguer le moindre détail de la surface (le flou gaussien a aussi le mérite de véritablement retirer ces détails, ils ne sont plus nulle part sur l’EXIF du cliché). Faites ensuite un agrandissement x4 de cette image, éloignez vous du moniteur qui affiche l’image, baissez la lumière et prenez une jolie photo de la lune affichée en oubliant pas d’activer la fonction Space Zoom du S23.
Résultat ? Le Galaxy S23 sort le cliché d’une Lune aussi belle et détaillée que dans les livres d’astronomie, ce qui est évidemment impossible à moins de quasiment remplacer la lune floue photographiée par des éléments issus d’autres clichés de la Lune. On est ici moins sur un procédé de photographie améliorée par ISP que sur un traitement d’image à la Dall-E, l’image de la Lune étant en fait recréée de toute pièce selon les données initiales d’une banque d’images. En clair, l’optique ne sert presque à rien ici (malgré le pitch marketing sur le zoom x100), mais l’IA générative d’image fait tout.
Histoire d’enfoncer le clou, un internaute vigilant a retrouvé sur Camcyclopedia un texte de Samsung relatif à la façon d’utiliser l’IA pour améliorer des clichés de la Lune. Le procédé décrit ne laisse pas de place aux doutes : « Le moteur de reconnaissance de la lune a été créé en apprenant diverses formes de lune, de la pleine lune au croissant de lune, sur la base d’images que les gens voient réellement avec leurs yeux sur Terre. Il (le moteur, Ndlr) utilise un modèle d’IA deep learning pour montrer la présence et l’absence de la lune dans l’image et la zone en conséquence. Les modèles d’IA qui ont été entraînés peuvent détecter les zones lunaires même si d’autres images lunaires qui n’ont pas été utilisées pour l’entraînement sont insérées. »
Real-Debrid, un débrideur français qui est réputé pour le téléchargement et le streaming de films et de...
Microsoft a annoncé avoir obtenu le blocage de 240 sites liés à un réseau de cybercriminels, après avoir lancé...
C’est la grosse boulette de la semaine : si l’on en croit un dépôt de la cour de justice, les ingénieurs d’OpenAI...
La Bagnole (ça ne s’invente pas), un véhicule électrique conçu et fabriqué part une startup française,...
Des chercheurs britanniques de l’université de Birmingham ont développé une nouvelle théorie décrivant les...
22 Nov. 2024 • 14:56
22 Nov. 2024 • 12:50