¿Qué es el trabajo social?
El trabajo social es un profesional de la acción social que se ocupa de fomentar el bienestar del ser humano y la prevención y atención de dificultades y/o carencias sociales de las personas, familias, grupos y del medio social en el que viven.
Historia del Trabajo Social
Históricamente, en relación con los orígenes del trabajo social, se aprecia cómo desde los primeros siglos de esta era aparecen preocupaciones e iniciativas dirigidas al mejoramiento de las condiciones Sigue leyendo