Los investigadores de inteligencia artificial deben aprender ética

Los investigadores de inteligencia artificial deben aprender ética

Los drones entregan algo más que comida. Crédito: www.routexl.com, CC BY-NC-SA

Los científicos que construyen inteligencia artificial y sistemas autónomos necesitan una sólida comprensión ética del impacto que podría tener su trabajo.

Más de 100 pioneros de la tecnología publicaron recientemente una carta abierta a las Naciones Unidas sobre el tema de las armas autónomas letales o “robots asesinos”.

Estas personas, incluido el empresario Elon Musk y los fundadores de varias empresas de robótica, son parte de un esfuerzo que comenzó en 2015. La carta original pedía el fin de una carrera armamentista que, según afirmaba, podría ser la “tercera revolución en la guerra, después de pólvora y armas nucleares “.

La ONU tiene un papel que desempeñar, pero la responsabilidad del futuro de estos sistemas también debe comenzar en el laboratorio. El sistema educativo que capacita a nuestros investigadores de IA debe educarlos en ética y codificación.

Autonomía en IA

Los sistemas autónomos pueden tomar decisiones por sí mismos, con poca o ninguna participación de los humanos. Esto aumenta enormemente la utilidad de los robots y dispositivos similares.

Por ejemplo, un dron de reparto autónomo solo requiere la dirección de entrega, y luego puede elaborar por sí mismo la mejor ruta para superar cualquier obstáculo que pueda encontrar en el camino, como un clima adverso o una bandada de gaviotas curiosas.

Se ha investigado mucho sobre sistemas autónomos y empresas como Amazon están desarrollando drones de reparto. Claramente, la misma tecnología podría usarse fácilmente para realizar entregas que son significativamente más desagradables que la comida o los libros.

Los drones también se están volviendo más pequeños, más baratos y más robustos, lo que significa que pronto será factible fabricar y desplegar ejércitos voladores de miles de drones.

El potencial para el despliegue de sistemas de armas como este, en gran parte desacoplados del control humano, impulsó la carta instando a la ONU a “encontrar una manera de protegernos a todos de estos peligros”.

Ética y razonamiento

Cualquiera que sea su opinión sobre tales sistemas de armas, el tema destaca la necesidad de considerar las cuestiones éticas en la investigación de la IA.

Como en la mayoría de las áreas de la ciencia, adquirir la profundidad necesaria para hacer contribuciones al conocimiento del mundo requiere enfocarse en un tema específico. A menudo, los investigadores son expertos en áreas relativamente limitadas y pueden carecer de formación formal en ética o razonamiento moral.

Los investigadores de inteligencia artificial deben aprender ética
Un automóvil autónomo de Google. Crédito: Roman Boed, CC BY-NC

Es precisamente este tipo de razonamiento el que se requiere cada vez más. Por ejemplo, los automóviles sin conductor, que se están probando en los EE. UU., Deberán poder emitir juicios sobre situaciones potencialmente peligrosas.

Por ejemplo, ¿cómo debería reaccionar si un gato cruza inesperadamente la calle? ¿Es mejor atropellar al gato o virar bruscamente para evitarlo, arriesgando lesiones a los ocupantes del automóvil?

Con suerte, estos casos serán raros, pero el automóvil deberá diseñarse teniendo en cuenta algunos principios específicos para guiar su toma de decisiones. Como dijo Virginia Dignum cuando presentó su artículo “Autonomía responsable” en la reciente Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) en Melbourne: “El automóvil sin conductor tendrá ética; la pregunta es ¿de quién?”

Un tema similar se exploró en el documento “Automatización de la doctrina del doble efecto” de Naveen Sundar Govindarajulu y Selmer Bringsjord.

La Doctrina del Doble Efecto es un medio de razonamiento sobre cuestiones morales, como el derecho a la autodefensa en circunstancias particulares, y se le atribuye al erudito católico del siglo XIII, Tomás de Aquino.

El nombre Doble Efecto proviene de obtener un buen efecto (como salvar la vida de alguien) y un mal efecto (dañar a otra persona en el proceso). Esta es una forma de justificar acciones como un dron disparando a un automóvil que está atropellando a los peatones.

¿Qué significa esto para la educación?

El surgimiento de la ética como tema de discusión en la investigación de la IA sugiere que también deberíamos considerar cómo preparamos a los estudiantes para un mundo en el que los sistemas autónomos son cada vez más comunes.

Recientemente se ha establecido la necesidad de personas con “forma de T”. Las empresas ahora buscan graduados no solo con un área específica de profundidad técnica (el trazo vertical de la T), sino también con habilidades profesionales y cualidades personales (el trazo horizontal). Combinados, pueden ver los problemas desde diferentes perspectivas y trabajar de manera efectiva en equipos multidisciplinarios.

La mayoría de los cursos de pregrado en ciencias de la computación y disciplinas similares incluyen un curso sobre ética y práctica profesional. Suelen centrarse en cuestiones de propiedad intelectual, derechos de autor, patentes y privacidad, que sin duda son importantes.

Sin embargo, parece claro de las discusiones en IJCAI que existe una necesidad emergente de material adicional sobre cuestiones éticas más amplias.

Los temas podrían incluir métodos para determinar el menor de dos males, conceptos legales como negligencia criminal y el efecto histórico de la tecnología en la sociedad.

El punto clave es permitir que los graduados integren perspectivas éticas y sociales en su trabajo desde el principio. También parece apropiado exigir propuestas de investigación para demostrar cómo se han incorporado las consideraciones éticas.

A medida que la IA se integra más amplia y profundamente en la vida cotidiana, es imperativo que los tecnólogos comprendan la sociedad en la que viven y el efecto que sus invenciones pueden tener en ella.


Similar Posts

Leave a Reply