¿Qué modelos éticos para vehículos autónomos no abordan y cómo podrían ser mejores?

¿Qué modelos éticos para vehículos autónomos no abordan y cómo podrían ser mejores?

Crédito de la foto: Denys Nevozhai.

Existe una falla bastante grande en la forma en que los programadores abordan actualmente las preocupaciones éticas relacionadas con la inteligencia artificial (IA) y los vehículos autónomos (AV). Es decir, los enfoques existentes no tienen en cuenta el hecho de que las personas podrían intentar usar los AV para hacer algo malo.

Por ejemplo, digamos que hay un vehículo autónomo sin pasajeros y está a punto de chocar contra un automóvil de cinco personas. Puede evitar la colisión desviándose fuera de la carretera, pero luego golpearía a un peatón.

La mayoría de las discusiones sobre ética en este escenario se centran en si la IA del vehículo autónomo debe ser egoísta (proteger el vehículo y su carga) o utilitaria (elegir la acción que dañe a la menor cantidad de personas). Pero ese enfoque de la ética de una u otra u otra puede plantear sus propios problemas.

“Los enfoques actuales de la ética y los vehículos autónomos son una simplificación excesiva peligrosa 攎 el juicio oral es más complejo que eso”, dice Veljko Dubljevi 膰, profesor asistente en el programa de Ciencia, Tecnología y Sociedad (STS) de la Universidad Estatal de Carolina del Norte y autor de un papel que describe este problema y un posible camino a seguir. “Por ejemplo, ¿qué pasa si las cinco personas en el automóvil son terroristas? ¿Y si se aprovechan deliberadamente de la programación de la IA para matar al peatón cercano o lastimar a otras personas? Entonces, es posible que desee que el vehículo autónomo golpee el automóvil con cinco pasajeros.

“En otras palabras, el enfoque simplista que se utiliza actualmente para abordar las consideraciones éticas en la inteligencia artificial y los vehículos autónomos no tiene en cuenta la intención maliciosa. Y debería”.

Como alternativa, Dubljevi 膰 propone utilizar el modelo llamado Agente-Escritura-Consecuencia (ADC) como marco que las IA podrían utilizar para emitir juicios morales. El modelo ADC juzga la moralidad de una decisión basándose en tres variables.

Primero, ¿la intención del agente es buena o mala? En segundo lugar, ¿el hecho o la acción en sí son buenos o malos? Por último, ¿el resultado o la consecuencia son buenos o malos? Este enfoque permite matices considerables.

Por ejemplo, la mayoría de la gente estaría de acuerdo en que pasar un semáforo en rojo es malo. Pero, ¿qué pasa si se pasa un semáforo en rojo para apartarse del camino de una ambulancia a toda velocidad? ¿Y si pasar la luz roja significa que evitó una colisión con esa ambulancia?

“El modelo ADC nos permitiría acercarnos a la flexibilidad y estabilidad que vemos en el juicio moral humano, pero eso aún no existe en la IA”, dice Dubljevi 膰. “Esto es lo que quiero decir con estable y flexible. El juicio moral humano es estable porque la mayoría de la gente estaría de acuerdo en que mentir es moralmente malo. Pero es flexible porque la mayoría de la gente también estaría de acuerdo en que las personas que mintieron a los nazis para proteger a los judíos estaban haciendo algo moralmente”. bueno.

“Pero aunque el modelo ADC nos da un camino a seguir, se necesita más investigación”, dice Dubljevi 膰. “He dirigido trabajos experimentales sobre cómo los filósofos y los laicos abordan el juicio moral, y los resultados fueron valiosos. Sin embargo, ese trabajo proporcionó a las personas información por escrito. Se necesitan más estudios sobre el juicio moral humano que se basen en medios de comunicación más inmediatos, como la realidad virtual, si queremos confirmar nuestros hallazgos anteriores e implementarlos en los vehículos autónomos. Además, se deben realizar pruebas rigurosas con estudios de simulación de conducción antes de que cualquier vehículo autónomo supuestamente “ético” comience a compartir la carretera con los humanos de forma regular. Terror de vehículos Los ataques, desafortunadamente, se han vuelto más comunes y debemos estar seguros de que la tecnología AV no se utilizará indebidamente con fines nefastos “.

El artículo, “Hacia la implementación del modelo ADC de juicio moral en vehículos autónomos”, se publica en la revista Ética de la ciencia y la ingeniería.


Similar Posts

Leave a Reply