Back to top

#Derechos del trabajo

#Derechos del trabajo

Los derechos del trabajo son un grupos de derechos relativos a las relaciones laborales entre los/as trabajadores y sus empleadores. En general, los debates sobre estos derechos tienen que ver con la negociación del salario de los trabajadores/as y de la seguridad de las condiciones del trabajo. Uno de los derechos fundamentales es el derecho a sindicalizarse. Los sindicatos utilizan la negociación en forma colectiva y la acción industrial para incrementar los salarios de sus miembros, o en caso contrario, cambiar su situación laboral.