Fondo azul con piezas de puzle

7 de mayo de 2026


Cómo diseñar una evaluación de desempeño cuando no toda la plantilla trabaja igual

Existe una máxima muy repetida en la gestión de personas: lo que no se mide, no se puede mejorar. Suena lógica, casi incuestionable. Pero en la práctica, hay una segunda parte que suele olvidarse: lo que no se puede recoger, directamente no puede existir en el análisis. Y aquí es justo donde muchas organizaciones se juegan la partida sin darse cuenta.

Es un poco como intentar hacer una fotografía de grupo dejando a la mitad de las personas fuera del encuadre. La imagen puede parecer correcta, incluso nítida, pero no representa la realidad completa. En el ámbito de la evaluación del desempeño esto ocurre más de lo que creemos, especialmente cuando conviven perfiles de oficina con colectivos operativos sin acceso habitual a herramientas digitales.

Don Norman, en The Design of Everyday Things, lo explica desde otro punto de vista, pero con una idea muy aplicable en este contexto. Cuando un sistema no está diseñado para la realidad de una organización, quiere decir que el sistema solo aplicará para unos y para otros no funcionará nunca. El paradigma que nos encontramos es claro. Cuando la participación no es homogénea, el dato deja ser un reflejo fiel de la organización. Y cuando el dato no representa a todos, las decisiones empiezan a parecerse más a una intuición bien presentada que a una estrategia basada en evidencia. Los informes de Deloitte sobre Human Capital Trends vienen señalando que el valor de la analítica de personas no depende solo del volumen de datos, sino de su calidad, integración y representatividad en toda la organización.

Por este motivo, desde Hrider, queremos enseñarte cómo diseñar una evaluación de personas cuando no toda la plantilla trabaja igual.

1. Detectar si tu evaluación está diseñada para oficina o para toda la organización.

Antes de pensar en herramientas, hay una pregunta incómoda que debes hacerte: ¿pueden todas las personas participar en igualdad de condiciones?

En muchas organizaciones industriales o con red operativa amplia, la respuesta es parcial. No porque no quieran participar, sino porque el diseño del proceso presupone acceso digital continuo.

2. Evita el sesgo de participación como punto de partida del análisis.

Si solo responde quien tiene acceso, el dato deja de representar a la organización y empieza a representar a un subconjunto. Esto tiene una consecuencia directa: el análisis posterior hereda un sesgo sin que nadie lo cuestione.

En People Analytics esto es especialmente crítico, porque la calidad de la decisión depende directamente de la calidad del dato de entrada.

3. Diseña un único proceso, no múltiples versiones paralelas.

Uno de los errores más frecuentes es fragmentar la evaluación por colectivos. A priori parece lógico, pero en la práctica introduce complejidad, inconsistencias y pérdida de comparabilidad.

El enfoque más robusto no es crear procesos distintos, sino diseñar un único sistema capaz de adaptarse a distintos contextos de acceso.

4. Adapta el canal pero no el contenido.

La clave se encuentra en definir qué preguntas hacer y la manera adecuada de plantearlas. No es tanto el qué, sino el cómo.

En entornos mixtos esto puede implicar:

  • Acceso por email para perfiles administrativos.
  • Acceso móvil directo para colectivos sin puesto digital.
  • Eliminación de credenciales complejas o barreras de entrada.
  • Experiencia fluida sin necesidad de formación previa.

El objetivo no es digitalizar por completo, sino eliminar los posibles ibrechas que se pueden generar.

5. Integra métricas en lugar de separarlas.

Uno de los errores habituales es tratar el eNPS como un proceso independiente de la evaluación del desempeño.

Sin embargo, cuando se integra en el mismo flujo, el valor analítico se multiplica.

  • Permite cruzar percepción y desempeño.
  • Identifica patrones por áreas o mandos.
  • Detecta correlaciones entre liderazgo y experiencia.
  • Aporta contexto a los resultados individuales.

Cuando los datos se cruzan, dejan de ser descriptivos y pasan a ser interpretativos.

La diferencia entre recoger datos y comprender la realidad

Al final, el problema, como decimos siempre, no está en medir poco. Muchas veces está en medir solo a quienes resulta fácil escuchar.

Cuando una parte de la plantilla queda fuera del proceso, la evaluación deja de ser una herramienta de comprensión para convertirse en una interpretación parcial de la realidad. Los estudios de Deloitte sobre tendencias en capital humano llevan años insistiendo en una idea relevante: la confianza en los datos depende no solo de su volumen, sino de la capacidad de representar de forma fiable cómo trabajan, participan y evolucionan las personas dentro de su organización. La calidad del análisis no empieza cuando se interpreta la información, sino mucho antes, en el momento en que se diseña cómo recogerla.

En Hrider ya hemos hablado en otras ocasiones sobre cómo la evaluación del desempeño debe entenderse como una herramienta estratégica y no únicamente operativa. En este artículo te mostramos una guía de cómo realizar una evaluación del desempeño más amplia. La diferencia está en algo sencillo pero decisivo: diseñar procesos que se adapten a la organización real y no a la organización ideal que imaginamos desde un organigrama.