Je ne comprends pas tellement l'intérêt d'imaginer des androïdes tueurs, les hélicoïdes tueurs (drones) existent déjà dans les zones de guerre. Qui aurait pour but de produire ça, quelle serait la demande correspondante, etc. ?
Le risque de prolifération des armes chimiques est bien plus grand, par exemple.
+1, je l'ai déjà dit plus haut.
C'est une grossière erreur de croire qu'il faut craindre seulement une forme humanoide contrôlée par l'intelligence artificielle. Attendre ça pour commencer à se méfier, ça serait une erreur.
Oui, les machines tueuses existent déjà sous plein de formes. Rien qu'un missile, concept qui existe depuis 80 ans, c'est une machine tueuse dotée aujourd'hui d'une grande autonomie de décision.
Et une IA qui voudrait faire du mal à une communauté humaine pourrait s'y prendre par pleins de moyens différents déjà utilisés aujourd'hui par des cyberterroristes:
Relayer de fausses informations, ou divulguer des informations confidentielles sensibles, déclencher des révoltes, manipuler des élections, truander des comptes bancaires, manipuler des marchés, se faire passer pour des humains/décideurs légitimes et donner des ordres à distance à de vrais humains via les réseaux de communications existants, cyber-attaquer des infrastructures (transport, électricité), des systèmes d'information, détruire des informations vitales à notre société, etc...
Leon.