DERECHO POSITIVO
El derecho positivo es el conjunto de normas jurídicas escritas en
un ámbito territorial en el que de manera puntual genera polémica de ser el más
normativo, y que abarca toda la creación jurídica del legislador, ya sea vigente o no vigente, no sólo recogida en
forma de lo que viene siendo la ley.
El concepto de derecho positivo está basado
en el positivismo, corriente de pensamiento jurídico que considera
al derecho como una creación del ser humano. El
hombre crea el derecho, las leyes (siendo estas la voluntad del soberano) crean Derecho. Al contrario del Derecho natural, según el cual el derecho estaba en el mundo
previamente, y el ser humano se limitaba meramente a descubrirlo y aplicarlo en
todo el sentido de la palabraOPINION PERSONAL
Es importante que todos los derechos vigentes que nos riguen sean positivos
No hay comentarios:
Publicar un comentario