Définition
Droit
Être dans son bon droit signifie être en règle. Le droit désigne l’ensemble des règles qui commandent la vie sociale et arbitrent les conflits dans la société.
Le droit est dit positif lorsqu’il concerne la création et l’application des lois permettant un arbitrage entre les hommes. Il suppose alors l’intervention d’un arbitre impartial capable de régler un différent et de concilier des intérêts opposés.