Loi 4 : Un robot, si par son intelligence, estime qu'un humain est devenu fou ou dangereux pour les autres humains, alors il peut transgresser la Loi 1. S'il fait mauvais usage de cette loi, il sera éliminé.
Pour moi cette loi 4 va en approbation avec la loi 0 car un robot doit aider l'humanité et empecher quelqu'un de lui faire du mal, donc si un robot juge qu'une personne fait du mal à un humain, il peut tuer cet humain pour sauver d'autres personnes. Cependant pour cela il faut avoir confiance en la capacité de décision d'un robot, ce qui n'est pas toujours garanti.
( l'argumentation est pas géniale mais je pense avoir tout dit ;).