¿Que es el derecho laboral?
También llamado Derecho del trabajo es el conjunto de normas que regula las relaciones que surgen de la actividad laboral.
Se origina con la apertura del contrato de trabajo individual suscrito entre el empresario y el trabajador, a través de éste se estipulan todos las obligaciones y derechos que van a comtemplar en la relación laboral entre las dos partes.
Es importante destacar que a la hora de defender los derechos de todos los trabajadores, nos encontramos con el Derecho Sindical, el cual marca el funcionamiento de las asociaciones colectivas para la defensa de éstos.
Las relaciones laborales se encuentran conectadas a las que se establecen entre trabajadores, empresarios, el Estado y las organizaciones sindicales y profesionales.