C'est là où je me rends compte que y'a quand même un manque de culture mathématique assez dramatique pour le XXIe siècle...
Un fichier, c'est un ensemble de données, qu'on peut résumer sous la forme d'un gros nombre (avec des dizaines millions de chiffres, dans le cas d'une image ou d'un fichier RAW). Ce gros nombre a des propriétés particulières, ça ne peut pas être n'importe quel nombre, il a une certaine forme de régularité (par exemple, tous les 8 chiffres, il y a un zéro, obligatoirement).
Si ce gros nombre est tel quel, on dit que le fichier est "non compressé".
Si ce nombre n'est pas tel quel, et qu'on arrive à "résumer" ce gros nombre par un nombre un peu moins gros, par un processus réversible (en jouant sur les régularités dudit nombre), alors ce nombre un peu moins gros est ce qu'on appelle un fichier compressé sans pertes : il est moins gros que le fichier original, mais il contient exactement les mêmes informations. (En reprenant l'exemple plus haut, on pourrait faire "sauter" les 0 intercalés tous les 8 chiffres à la compression, puis les remettre à la décompression : on gagne 12,5% d'espace sans perte d'information.)
Et j'insiste sur "exactement" les mêmes informations. Il est mathématiquement, rigoureusement, absolument impossible de différencier une fois décompressé un fichier compressé sans pertes d'un fichier non compressé.
La compression avec pertes, c'est encore autre chose. L'idée, c'est de trouver un nombre (fichier) encore plus petit qui résume le nombre (fichier) initial, en cherchant un moyen qu'une fois décompressé, ce nombre (fichier) compressé avec pertes ressemble "presque" au nombre (fichier) original. Là, par contre, il est théoriquement possible de faire la différence. En pratique, tout dépend du degré de compression (et donc de la quantité d'information perdues).