Centrarse en el factor humano en el diseño de sistemas.

Centrarse en los factores humanos en el diseño de sistemas.

Un nuevo estudio ha encontrado que uno de los desafíos en el diseño de sistemas que involucran a personas que interactúan con la tecnología es abordar el rasgo humano del exceso de confianza. Crédito: QUT

Un nuevo estudio ha encontrado que uno de los desafíos en el diseño de sistemas que involucran a personas que interactúan con la tecnología es abordar el rasgo humano del exceso de confianza.

El estudio, publicado en la revista Sistemas de control IEEE, adopta un enfoque multidisciplinario novedoso en el estudio de los sistemas humanos ciberfísicos. La investigación considera la relación entre las personas y los sistemas informáticos tanto desde la perspectiva de la ingeniería de sistemas de control como desde la economía del comportamiento.

La investigación del profesor de sistemas ciberfísicos de QUT, Daniel Quevedo, y Marius Protte y el profesor René Fahr, ambos de la Universidad de Paderborn en Alemania, analiza el impacto que la decisión humana puede tener en un sistema diseñado.

El profesor Quevedo dijo que los ingenieros de sistemas de control generalmente no examinaban la interacción entre las personas y los sistemas en los que se encontraban, y cómo sus elecciones podrían impactar en el sistema.

Para explicar cómo las decisiones humanas impredecibles podrían impactar en un sistema controlado, el profesor Quevedo dijo que un ejemplo sería si estuviera planeando un viaje usando un sistema de navegación y se le ofrecieran rutas alternativas.

“Tomo mis propias decisiones en base a la información y manejo. Y eso afecta todo el sistema de tránsito”, dijo el profesor Quevedo.

“Existe este problema de qué información me da el sistema del coche para que me comporte de una forma u otra.

“Eso es solo para un automóvil. Con el tráfico, hay muchos automóviles. ¿Qué información debemos obtener para que nos comportemos de una forma u otra? ¿Cómo funcionan nuestras acciones?”

Si bien el diseñador del sistema espera que los humanos tomen la ruta más rápida, es posible que tomen una ruta diferente. Si suficientes personas decidieran tomar una ruta alternativa, entonces sería necesario reconsiderar las predicciones de flujo de tráfico del sistema.

El profesor Quevedo dijo que el diseño exitoso de sistemas de control ‘humanos en el circuito’ requería una comprensión de cómo se comportaban los humanos.

Dijo que un tema interesante era que las personas, a diferencia de las máquinas, no necesariamente mejoraban su desempeño a través de comentarios inmediatos y frecuentes.

“Dada la inmensa complejidad del comportamiento humano, no existe una forma clara de crear modelos apropiados para la toma de decisiones humanas”, dijo el profesor Quevedo.

Un nuevo estudio ha encontrado que uno de los desafíos en el diseño de sistemas que involucran a personas que interactúan con la tecnología es abordar el rasgo humano del exceso de confianza. Crédito: QUT

En el estudio, los investigadores observaron cómo se comportaban las personas cuando se les encomendaba la tarea de pilotar un dron y descubrieron que la retroalimentación frecuente sobre la calidad de las decisiones de pilotaje tomadas puede conducir a un rendimiento deficiente.

“Aunque comúnmente se considera que más información da como resultado mejores decisiones, se debe considerar la susceptibilidad humana a los sesgos de percepción en respuesta a un alto suministro de información”, dijo el profesor Quevedo.

“De lo contrario, las personas podrían asumir riesgos innecesariamente altos, lo que haría que las políticas cuidadosamente diseñadas fueran ineficientes.

El estudio destaca que las personas a menudo sobrestiman su capacidad en una tarea, como creer que son mejores que los conductores promedio, o sucumben a la “falacia de la mano caliente” del baloncesto que vincula la probabilidad de que un jugador marque en el futuro con su pasado. éxitos en el lanzamiento.

“Si ganas, crees que lo estás haciendo muy bien, te enamoras de ti mismo”, dijo el profesor Quevedo.

“Como ingeniero de control, siempre tendí a asumir que las personas cooperativas de alguna manera solo hacen lo que se les dice porque son parte de un sistema.

“Necesitamos incorporar un modelo de comportamiento humano, pero el comportamiento humano es algo difícil.

“No desea sobrecargar a las personas con información porque no pueden procesarla toda. Pero es mucho más refinado que eso”.

Este estudio multidisciplinario del comportamiento humano a través de la economía del comportamiento y la ingeniería de sistemas de control es un comienzo para futuras investigaciones.

“Unir los mundos es el primer paso para nosotros. Ahora queremos continuar”, dijo el profesor Quevedo.

“El trabajo actual expone al ser humano como una fuente de errores poco observada en los sistemas de control humanos en el circuito.

“Las áreas futuras de investigación deben ser cómo diseñar mecanismos sobre cuándo transmitir información y cómo transmitir información a los tomadores de decisiones humanos”.


Similar Posts

Leave a Reply