Factor humano: incidentes y accidentes
- mmonfortem
- 20 ene
- 9 Min. de lectura

Manfredo Monforte Moreno
GD (r) Dr. Ingeniero de Armamento. MBA. MTIC. Artillero
De la Academia de las Ciencias y las artes militares
El factor humano es un concepto fundamental en la seguridad industrial, el transporte, la construcción, la medicina, la conducción y en general en todas las facetas de la actividad humana. Se estima que entre el 70% y el 90% de los accidentes tienen su origen, directo o indirecto, en el desempeño de las personas. Sin embargo, durante la carrera de ingeniería te enseñan que el factor humano está detrás del 100 % de los incidentes y accidentes, pues sea por actuaciones directas, sabotaje, falta de previsión en el diseño o en el plan de gestión de riesgos, es el ser humano quien se expone a peligros que desconoce o que cree que puede controlar.
Todos los años se producen fallecimientos por aludes de nieve, riadas, incendios, rayo, ataque de animales, accidentes en el transporte, imprudencias o, simplemente, por minusvalorar los riesgos del tabaco, el alcohol o las drogas. En todos los casos, nadie pensó en el fatal desenlace. Y se sigue haciendo esquí fuera de pistas, pasando cursos crecidos de agua con el coche o la moto, construyendo en zonas inundables, paseando bajo la tormenta, conduciendo de forma inapropiada o tratando de acercarse demasiado a un elefante o hipopótamo como parte de la aventura en África. Todo parece estar bajo control o es muy divertido hasta que deja de serlo. Y siempre, siempre, hay alguien que no previó lo que podría suceder por raro e improbable que el suceso parezca.
Son muchos los casos en que el diseñador de un sistema no supo anticipar los problemas que podrían surgir a lo largo del ciclo de vida de cualquier sistema complejo. Recuerdo un caso en que en un avión comercial se sustituyó un indicador defectuoso del nivel de combustible por otro aparentemente igual de la misma marca y modelo de avión. El dispositivo funcionaba perfectamente, pero al tratarse de una variante del original, indicaba depósito lleno cuando el nivel real no alcanzaba el 10 %. El avión despegó para estrellarse poco después de abandonar el aeropuerto. El equipo de diseño no previó que, aunque el fabricante de los aviones era el mismo, los modelos del dispositivo no eran equivalentes y las lecturas del nivel engañarían a los pilotos si se colocaba en un modelo no previsto. Bastaba con hacer que ambos modelos no fuesen intercambiables.
Sin embargo, modernamente no se ve al humano como el «culpable», sino como el último eslabón de una cadena de errores del sistema. Pero ¿qué es el factor humano? En puridad, el concepto no se refiere sólo a cometer un error, sino a la interacción de las personas con su entorno, herramientas, procedimientos y otros compañeros. Se analiza bajo tres dimensiones:
- Capacidades físicas y cognitivas: fatiga, estrés, visión, memoria y atención.
- Factores psicológicos: exceso de confianza, motivación o complacencia.
- Entorno organizacional: Cultura de seguridad, presión por el tiempo o falta de capacitación.
Entre los fallos más habituales podemos citar:
- Deslices: fallos en la ejecución de una tarea rutinaria (involuntario). Presionar el botón equivocado por distracción.
- Lapsos: fallos de memoria a corto plazo. Olvidar un paso en una lista de verificación.
- Equivocaciones: fallos en el plan o en el juicio (creer que haces lo correcto). Aplicar un procedimiento erróneo ante una avería.
- Violaciones: incumplimiento deliberado de las normas. No usar el arnés de seguridad para terminar más rápido o no verificar una soldadura.
- Desconocimiento: falta de formación básica o no conocer los procedimientos. Despreciar fenómenos de fatiga por el repetido paso de trenes en un tramo de vía.
El modelo del queso suizo: este modelo explica que los accidentes no ocurren por un solo error, sino por la alineación de múltiples fallos. Cada medida de seguridad es una «rebanada de queso» y los errores son los «huecos»:
- Fallos latentes: decisiones de la gerencia, diseño pobre de equipos o falta de mantenimiento. Ocurre en proyectos cuyo presupuesto está demasiado ajustado y no permite gastos no previsto o sobrecostes.
- Condiciones previas: fatiga del personal o mala comunicación.
- Actos inseguros: el error final cometido por el operario.
- El accidente: ocurre cuando los huecos se alinean y el peligro atraviesa todas las barreras.
Factores que aumentan el riesgo: existen «precursores del error» que debemos vigilar constantemente:
- Fatiga y sueño: reducen el tiempo de reacción tanto como el alcohol. Les ocurre a equipos médicos y sanitarios que enlazan guardias con jornadas normales, empleados con dobles turnos, conducción prolongada, etc.
- Estrés y presión: el deseo de cumplir plazos y costes imposibles anula el juicio crítico. Dice un dicho: «ojalá no te toque un coche fabricado en lunes o viernes»
- Comunicación deficiente: mensajes ambiguos entre equipos de trabajo.
- Complacencia: la falsa sensación de seguridad tras años haciendo lo mismo sin incidentes. Por este motivo, los pilotos militares y otros deben reiniciar su formación según ciclos predeterminados. El exceso de confianza mata. Es la causa de los accidentes de tráfico y otros muchos.

¿Cómo se previenen estos factores de riesgo?: En lugar de castigar al individuo, las organizaciones modernas buscan:
- Diseño ergonómico: crear máquinas con las que sea difícil o impidan un mal uso.
- Gestión de recursos: entrenar equipos en comunicación asertiva y liderazgo.
- Cultura justa: fomentar que los empleados reporten sus propios errores para aprender de ellos sin miedo a represalias.
En los sectores de transporte, seguridad y defensa, el factor humano es crítico porque las consecuencias de un error suelen ser catastróficas (pérdida de vidas o activos estratégicos). En estos ámbitos, el ser humano opera a menudo en entornos de alta presión y con tecnología compleja.
- Transporte (aviación, marítimo y terrestre): en el transporte, el enfoque principal es la Gestión de Recursos de Tripulación (CRM) y la atención a las infraestructuras. Se ha pasado de la pericia técnica individual al trabajo en equipo coordinado. La pérdida de conciencia situacional es el factor principal en accidentes. Ocurre cuando el operador «se queda atrás» de lo que está sucediendo (ej. un piloto que no percibe que el avión está perdiendo velocidad). Por otra parte, la paradoja de la automatización dicta que cuanto más confiable es el sistema, más difícil es para el humano intervenir cuando este falla, debido a la falta de práctica y la complacencia. Este fenómeno es recurrente en el transporte de carga por carretera y marino, donde los ciclos de sueño se ven alterados constantemente.
- Seguridad (vigilancia y seguridad ciudadana): aquí el factor humano se centra en la percepción de la amenaza y la toma de decisiones bajo estrés agudo. Se producen sesgos cognitivos, pues el cerebro utiliza «atajos» para identificar el peligro. Esto puede llevar a errores de identificación o a subestimar un riesgo real por habituación (el guardia que deja de revisar mochilas porque «nunca pasa nada» o la falta de control de accesos de los empleados en un aeropuerto). Bajo una amenaza, la frecuencia cardíaca sube, lo que provoca visión de túnel y pérdida de la motricidad fina. Un agente de seguridad puede perder la capacidad de razonar lógicamente y actuar puramente por instinto a lo que se une que la capacidad de atención humana decae drásticamente después de 20-30 minutos mirando monitores de cámaras (monotonía).
- Defensa (operaciones militares y tácticas): en defensa, el factor humano se analiza bajo el concepto de «la niebla del combate» y el rendimiento del soldado. En sistemas de armas modernos, el exceso de información (infoxicación) puede paralizar al operador. El diseño de las interfaces es vital para que la decisión de «disparar o no disparar» sea clara. El desgaste psicológico acumulado afecta a la ética y la precisión de las operaciones, de hecho, se produce un aumento del riesgo de fratricidio por fuego amigo causado por fallos en la identificación y falta de comunicación en la cadena de mando, más que por fallos técnicos de las armas.
Para entender cómo colapsa el factor humano en sistemas complejos, el accidente de los Rodeos (Tenerife, 1977) es un caso de estudio definitivo. Sigue siendo el accidente más mortal de la historia de la aviación (583 víctimas) y cambió para siempre la seguridad en el transporte y la defensa. Lo fascinante es que no hubo fallos mecánicos. Dos aviones Boeing 747 en perfecto estado chocaron porque el «sistema humano» se rompió.

El factor Individual y el «síndrome del Gran Capitán»: el capitán del Boing 747 de KLM, Jacob Veldhuyzen era el instructor jefe de la aerolínea. Su copiloto detectó dudas sobre si la pista estaba despejada, pero no se atrevió a cuestionar con firmeza al «maestro» (exceso de autoridad). Una nueva ley estricta sobre horas de descanso les amenazaba con suspender sus licencias si no despegaba pronto. Esto generó una «visión de túnel»: su único objetivo era despegar, ignorando las señales de peligro. En seguridad y defensa, el lenguaje debe ser exacto; aquí falló. El copiloto dijo: "estamos en despegue". El controlador entendió que estaban esperando en posición, no que estaban acelerando por la pista. Justo cuando el controlador intentó advertir al avión, otra comunicación se cruzó, generando un pitido de 3 segundos que ocultó el mensaje vital: "Esperen para despegar". Una niebla repentina redujo la visibilidad a menos de 300 metros. Los aviones no se veían entre sí y la torre ni veía la pista ni tenía radar de tierra. El aeropuerto era pequeño y estaba congestionado por un desvío masivo de vuelos debido a una amenaza de bomba en otro aeropuerto (un evento externo de seguridad que alteró la operación normal).
Lecciones que transformaron la industria: Este desastre dio lugar a herramientas que hoy usas sin darte cuenta si trabajas en seguridad o transporte:
- CRM (Crew Resource Management): se eliminó la jerarquía absoluta. Ahora, el miembro más joven de una tripulación o un equipo táctico tiene la obligación de cuestionar al líder si detecta un riesgo.
- Terminología estándar: se prohibió la palabra "despegue" (take-off) excepto para la autorización final. Ahora se usa "salida" o "en posición" para evitar confusiones.
- Redundancia de seguridad: se entendió que el humano no es confiable bajo estrés, por lo que se implementaron radares de tierra y luces de eje de pista automáticas. La solución afectaba a las infraestructuras también.
Aplicación a la Seguridad y Defensa actual: hoy, en una sala de operaciones militares o de vigilancia, se aplica el «stop rule»: cualquier operador, sin importar su rango, puede detener una operación si pierde la conciencia situacional (el saber qué está pasando, por qué pasa y qué pasará después). Todos los sistemas de información modernos hacen hincapié en proporcionar una conciencia situacional fiable, oportuna y comprensible en situaciones límite.

El error humano en Ciberseguridad es, quizás, el desafío más complejo hoy en día porque los atacantes no hackean sistemas, hackean personas. En este sector, el factor humano no es un accidente operativo, sino el objetivo principal de la ingeniería social:
1. La ingeniería social y la psicología constituyen el escalón más débil: el 95% de las brechas de seguridad tienen un componente de error humano. Los atacantes utilizan disparadores psicológicos para que la víctima baje la guardia (un correo que parece venir del jefe o de un general exigiendo información urgente). «Su cuenta será bloqueada en 30 minutos» (reacción a la urgencia), pues el estrés reduce la capacidad de análisis crítico. Un archivo adjunto sobre «nuevos salarios» o «alerta de virus» dispara la curiosidad o el miedo del receptor.
2. Anatomía de un incidente: un caso real y actual es el ataque a la red eléctrica de Ucrania (o incidentes similares en infraestructuras críticas). El error inicial (desliz): un empleado administrativo abre un archivo Excel que parece una factura. Al hacer clic en «habilitar macros», ejecuta un código malicioso. Como el sujeto nota que el ordenador va lento, aunque lo atribuye a la «antigüedad del equipo» (complacencia) no informa del incidente permitiendo que el virus navegue por la red interna hasta saltar a la de control industrial (la que maneja los relés eléctricos). Y llega el desastre: los atacantes toman el control y apagan subestaciones, dejando a miles de personas sin luz.
3. Factores psicológicos en ciberdefensa. Un analista de seguridad recibe una media de 5.000 alertas al día. Al final de la jornada, ignora una alerta real pensando que es un «falso positivo». Por otra parte, muchos piensan que «mi empresa es pequeña, a nadie le interesa atacarme». Esto lleva a una actitud negativa: culpar al usuario por caer en un engaño, en lugar de diseñar un sistema que bloquee el correo malicioso antes de que llegue.
4. El modelo «confianza cero». Como sabemos que el humano va a fallar tarde o temprano, la defensa moderna aplica el principio de no confiarse nunca y verificar siempre. No importa si eres el director; el sistema te pedirá validar tu identidad varias veces a partir de un privilegio mínimo, es decir, cada usuario solo tiene acceso a lo que necesita estrictamente para su trabajo. Si se comete un error, el daño se queda «encapsulado». En todos los casos, hay que asumir que el empleado hará clic en el enlace por lo que deben implantarse sistemas capaces de detectar inmediatamente el comportamiento anómalo del software.
En definitiva, detrás de cada incidente o accidente hay alguien que no supo prever el comportamiento a largo plazo del sistema que diseña, construye o maneja en un entorno temporal determinado, con unas circunstancias concretas y riesgos desconocidos, pues aquellos que se conocen permiten arbitrar fórmulas de eliminación, prevención, mitigación o gestionar respuestas de contingencia. Todo tiene o puede tener consecuencias catastróficas sobre las personas, las infraestructuras, la seguridad y los sistemas de sistemas.



Comentarios