Yo suelo tener una visión bastante positiva de las personas que mi analista trata desesperadamente de equilibrar invitándome a que lea el diario todos los días para que la vida no me golpee de sorpresa...
Es asi que en uno de los sistemas que administramos para la capacitación hay un servicio de envío de notificaciones que es muy útil si se usa bien ya que te podes enterar por e-mail cuando te registran a una actividad por ejemplo. Empiezan a ver riesgos cuando se cometen errores (por ejemplo, te registran a una actividad equivocadamente o no inactivan la notificación cuando cancelan esa registración errónea).
Siguiendo mi visión optimsta, nosotros capacitamos a las personas en el uso correcto del sistema pero con el tiempo nos dimos cuenta que eso no es suficiente...hay que preparar los sistemas pensando que las personas se equivocan, no prestan la suficiente atención, se olvidan las cosas...
Fue así que diseñamos un mecanismo "anticrisis" que no realiza el envío de notificaciones si detecta que se supera un determinando numero de envíos. Eso nos permite detectar los errores humanos a tiempo y solucionar el tema antes de que lo sufran los usuarios. Nos dimos cuenta tambien que no es solo que los usuarios reciben "un par de mails" en forma equivocada, se pone en juego la confianza en la efectividad de todo el sistema (la gente hace juicios rapidamente sin tomar en cuenta la responsabilidad de cada actor).
Sistemas diseñados así son más evolucionados porque consideran que las personas no son tan evolucionadas.
Es asi que en uno de los sistemas que administramos para la capacitación hay un servicio de envío de notificaciones que es muy útil si se usa bien ya que te podes enterar por e-mail cuando te registran a una actividad por ejemplo. Empiezan a ver riesgos cuando se cometen errores (por ejemplo, te registran a una actividad equivocadamente o no inactivan la notificación cuando cancelan esa registración errónea).
Siguiendo mi visión optimsta, nosotros capacitamos a las personas en el uso correcto del sistema pero con el tiempo nos dimos cuenta que eso no es suficiente...hay que preparar los sistemas pensando que las personas se equivocan, no prestan la suficiente atención, se olvidan las cosas...
Fue así que diseñamos un mecanismo "anticrisis" que no realiza el envío de notificaciones si detecta que se supera un determinando numero de envíos. Eso nos permite detectar los errores humanos a tiempo y solucionar el tema antes de que lo sufran los usuarios. Nos dimos cuenta tambien que no es solo que los usuarios reciben "un par de mails" en forma equivocada, se pone en juego la confianza en la efectividad de todo el sistema (la gente hace juicios rapidamente sin tomar en cuenta la responsabilidad de cada actor).
Sistemas diseñados así son más evolucionados porque consideran que las personas no son tan evolucionadas.
En el diseño de Sistemas hay que manejar dos premisas básicas:
ResponderEliminar- diseñar sistemas APB (a prueba de b...)
- tener siempre en cuenta la Ley de Murphy, segun la cual si algo puede salir mal... va a salir mal...