Définition
Droit positif
Le droit positif recouvre toutes les règles qu’instaure une société après sa création. Il s’agit donc du système juridique tel qu’on le connaît. Le droit naturel précède le droit positif. Le droit positif est différent suivant les États, le temps et le lieu.