Petite remarque, quand on dit "1080i50", le 50 est le nombre d'image par seconde rendues _complètes_ (donc implicitement 100 demi-img/sec)
Donc si le contenu est à 50fps, qu'il soit progressif ou interlacé, restera 50fps.
A ma connaissance, je n'ai jamais vu de 1080i50, c'est le 1080i25 qui est énormément répandu car c'est le seul moyen d'accéder à la FullHD sans faire hurler les récepteurs du début de ce siècle.
Mais le 1080i50 est pareil, sans aucun mouvement entre les deux trames ?
Sur un film, c'est logique (p24, accéléré en p25, puis diffusé en i50 sans mouvement entre les deux trames), mais pour tout ce qui est en plateau ça ne devrait pas être le cas.
Accessoirement, diffuser du 1080p50 avec des images doublées, c'est tromper la TV en donnant des informations de mouvement saccadées.
Je me demande si ça ne pourrait pas poser plus de problèmes avec le 1080p50, ou si les TV savent aussi le détecter.
Ca dépend de la signalisation qui sert à décrire au décodeur les données qu'on lui envoie : quelle résolution, quel framerate, quel mode, quel codec toussa.
Si la signalisation est calée par rapport aux specs du décodeur, il restitue l'image (sinon écran noir, il essaye même pas)
Et là par contre, pour l'humain, lui il peut voir une différence si la signalisation n'est pas bien faite !
Par ex, je t'envoie du 1080p50, mais la vidéo c'est l'image d'une vieille webcam pourrie.
Ou encore, t'inquiète je t'envoie du progressif, mais finalement l'image est affichée interlacée (effet de peigne)
Forcément, le décodeur croit que c'est du progressif, il va pas désentralcer la vidéo vu qu'elle est déjà censée l'être dans le signal.
Bref, qu'on dise à ta TV on t'envoie 50fps et qu'elle sait gérer : elle affiche la vidéo comme il se doit.