Ça m’arrive souvent : je tombe sur une photo qui aurait pu être parfaite, sauf qu’elle est floue, pixelisée, ou prise avec un appareil qui n’avait rien à faire dans cette situation. Une capture d’écran agrandie à la main, une vieille photo numérisée depuis un album des années 90, une image récupérée depuis un PDF de mauvaise qualité. Dans ces cas-là, on se retrouve avec des blocs de couleur à la place des détails, et on se dit que c’est foutu.
Sauf que depuis quelques années, les algorithmes d’intelligence artificielle ont commencé à s’attaquer sérieusement à ce problème. Et récemment, j’ai décidé de tester l’un des outils qui circule le plus en ce moment dans les groupes de graphistes et de photographes amateurs : un outil permettant de depixeliser une image online, directement dans le navigateur, sans installation et sans compte à créer.
Voici ce que j’ai constaté.
C’est quoi, exactement, « dépixeliser » une image ?
Avant d’entrer dans le test, il faut être clair sur ce que ce terme recouvre vraiment. Une image pixelisée, c’est une image dont la résolution est trop faible par rapport à la taille d’affichage. Quand vous agrandissez une photo 200×200 pixels pour l’afficher en plein écran, votre écran ne peut pas inventer des informations qui n’existent pas : il étire et répète les pixels existants, ce qui donne cet effet de « blocs » caractéristique.
La dépixelisation classique — celle que font les logiciels depuis des décennies — consiste simplement à lisser ces blocs avec des algorithmes d’interpolation. Le résultat est souvent moins moche que le brut pixelisé, mais l’image reste floue et manque de détails.
Ce que font les outils modernes basés sur l’IA, c’est différent. Ils ne lissent pas : ils inventent des détails plausibles. On appelle ça le « super-resolution » ou « upscaling par IA ». L’algorithme a été entraîné sur des millions de paires d’images (basse résolution / haute résolution) et il apprend à prédire ce que devrait ressembler une image nette à partir d’une image dégradée.
Le résultat peut être spectaculaire. Ou décevant. C’est justement ce que je voulais vérifier.
Le test : trois images, trois contextes différents
Pour ce test, j’ai volontairement choisi des cas d’usage variés, parce qu’un outil peut très bien fonctionner sur un type d’image et être inutile sur un autre.
Image 1 : un visage humain en basse résolution
C’est probablement le cas d’usage le plus courant. J’ai pris une vieille photo de famille, numérisée depuis une photo papier des années 2000 avec un scanner de supermarché. La résolution d’origine était de 640×480 pixels, avec une pixelisation visible sur les visages dès qu’on agrandissait un peu.
Résultat après traitement : franchement impressionnant. Les contours des visages sont nets. Les yeux ont récupéré des détails qui semblaient perdus. La peau est lissée de façon naturelle, sans cet effet « peinture à l’huile » qu’on voit parfois avec les filtres de retouche classiques. L’image de sortie faisait x4 la résolution d’origine, soit 2560×1920 pixels. Parfaitement utilisable pour une impression.
Ce qui m’a un peu surpris, c’est que l’outil a recréé des textures cohérentes là où il n’y avait que du bruit. C’est là qu’on voit vraiment le travail du réseau de neurones plutôt qu’un simple filtre.
Image 2 : un logo vectoriel exporté en JPEG de mauvaise qualité
Deuxième test : un logo d’entreprise envoyé par un client, exporté en JPEG à 72 dpi depuis un fichier Word. Typiquement le genre d’image qu’on reçoit quand on demande « les fichiers de votre logo » et qu’on vous envoie ce qui traîne dans la signature email.
Ici, le résultat est plus mitigé. Les lettres sont plus lisibles, les bords moins crénelés. Mais le rendu n’est pas parfait : on sent que l’IA a interprété certains angles de façon légèrement déformée. Pour une utilisation web, c’est acceptable. Pour une impression grand format ou une déclinaison sur charte graphique, il faudrait encore retoucher, ou idéalement retrouver le fichier source vectoriel.
Ce n’est pas un échec de l’outil — c’est simplement une limite inhérente à la technologie. Un logo contient des formes géométriques précises que l’IA traite moins bien que les textures organiques d’un visage ou d’un paysage.
Image 3 : une capture d’écran agrandie
Dernier test : une capture d’écran d’un graphique statistique, agrandie à la main pour être intégrée dans un rapport. Le texte était illisible, les courbes pixelisées.
Là, le traitement IA donne quelque chose d’intéressant mais imparfait. Le graphique est plus net, les courbes sont lissées. Mais le texte reste difficile à lire — les lettres ont été reconstruites de façon approximative. C’est mieux qu’avant, mais pas exploitable tel quel si la lisibilité du texte est essentielle.
Ce que l’outil fait bien (et ce qu’il ne fait pas)
Après ce test sur trois images, voici une synthèse honnête :
L’outil excelle sur les photos de personnes, les paysages, et les images avec des textures organiques. C’est là que l’IA a été le plus entraînée, et ça se voit. Pour restaurer une vieille photo de famille ou rendre une image d’archive utilisable, c’est vraiment efficace — et ça prend moins d’une minute.
Les limites apparaissent sur les images avec du texte, des formes géométriques précises, ou des artefacts de compression JPEG trop prononcés. Dans ces cas, l’IA fait de son mieux mais elle reconstruit parfois des détails plausibles plutôt que des détails corrects. Ce n’est pas forcément un problème, selon l’usage.
Sur la question de la vitesse, c’est clairement un avantage par rapport à des logiciels comme Topaz Gigapixel AI ou même Photoshop avec ses filtres de super-résolution. Tout se passe dans le navigateur, le traitement prend quelques secondes pour une image standard, et le résultat est téléchargeable immédiatement.
Comment ça marche techniquement ?
Sans entrer dans des détails trop techniques, les outils de dépixelisation basés sur l’IA utilisent généralement des architectures de type GAN (Generative Adversarial Network) ou des modèles de diffusion plus récents. L’idée de base : un réseau génère une image haute résolution, un second réseau essaie de distinguer cette image générée d’une vraie photo nette. Les deux s’améliorent en compétition jusqu’à ce que le résultat soit convaincant.
Les chercheurs d’Adobe, de Google et de plusieurs universités ont beaucoup avancé sur ce sujet ces cinq dernières années. Des papiers comme SRGAN (2017) ou les travaux sur Real-ESRGAN ont posé les bases de ce que ces outils grand public implémentent aujourd’hui. Ce n’est plus de la science-fiction, c’est de la recherche appliquée.
Ce qui change avec les outils en ligne, c’est l’accessibilité. Avant, il fallait installer des logiciels lourds, avoir une carte graphique correcte, et savoir paramétrer les modèles. Maintenant, c’est dans le navigateur.
Pour qui c’est vraiment utile ?
Dans la pratique, je vois plusieurs profils qui peuvent tirer parti de ce type d’outil au quotidien.
Les photographes qui ont des archives anciennes et qui veulent les restaurer sans passer des heures sur Lightroom. Les graphistes qui reçoivent des ressources de mauvaise qualité de la part de clients et qui ont besoin de les rendre utilisables rapidement. Les community managers qui récupèrent des images pour des publications et qui ne peuvent pas se permettre d’attendre un visuel de meilleure qualité. Les journalistes ou blogueurs qui illustrent leurs articles avec des captures d’archives.
Pour les usages très exigeants — impression grand format, production vidéo, identité visuelle — un outil en ligne ne remplacera pas un traitement professionnel. Mais pour 80% des cas du quotidien, c’est largement suffisant.
Mon verdict final
J’y suis allé avec un certain scepticisme, et je ressors avec une vraie surprise. Pas parce que l’outil est parfait — il ne l’est pas. Mais parce qu’il est bien meilleur que ce à quoi je m’attendais, et surtout parce qu’il est utilisable sans friction aucune.
Le cas du visage humain m’a particulièrement convaincu. Voir une photo floue et pixelisée retrouver des détails nets en quelques secondes, sans retouche manuelle, c’est une expérience un peu étrange. On se demande si l’IA « invente » ou « retrouve » — et la réponse est que c’est quelque part entre les deux, ce qui est à la fois fascinant et un peu vertigineux.
Si vous avez des images à restaurer ou à améliorer, l’essai ne coûte rien. Importez une de vos photos les plus abîmées et voyez par vous-même.