Quelle est la latence induite?
La demo faites par l'auteur affiche: 4ms de latence d'input et 30ms de latence d'affichage. Pour un ping time de '10 ms' entre son PC et le serveur. Ca s'ajoute donc a la latence normal d'un jeu (lié au jeu lui même et au hardware pour le faire tourner).
pc --> input (4ms) --> serveur cloud (latence jeu) --> encodage video+envoi (30ms) --> pc --> moniteur/tv (latence possible).
Ca rajoute donc 34ms de latence par rapport au même jeu qui tournerai en local.
Il est proche des serveurs d'Amazon et avec un bonne connexion. Chez nous, Amazon n'a rien en France donc c'est soit l'Irlande (ou l'Allemagne mais pas de GPU labas pour l'instance) :
http://cloudping.info/. De chez moi j'aurais un ping de 30ms au lieu de 10ms donc. Ca rajoute 15ms de latence dans chaque sens: 9 ms pour l'input et 45ms pour la video. Ca reste très correct et imperceptible pour la plupart des jeux.
Le truc pour que ca marche est d'avoir un bon 'ping' donc la fibre et un bon peering avec Amazon plus qu'un bon débit: la démo qui est en 1280x800@60fps ne nécessite que 12Mbps de débit. La recommandation NVidia est une connexion a 50Mbps ou plus et un ping a 60ms ou moins.
Le truc qui fait que ca fonctionne bien c'est la carte NVidia: c'est elle qui encode de facon hardware l'image video en flux réseau (H.264) et pas le CPU comme dans les solutions classiques d'affichage distant (vnc,rdp,teamviewer,etc). Le gain est énorme et c'est la partie la plus critique du cloud gaming.