Cómo los “derechos humanos desde el diseño” pueden salvarnos del uso indebido de la IA

Los acontecimientos de los últimos años han revelado algunas violaciones de derechos humanos relacionadas con el aumento de los avances en inteligencia artificial (IA).

Algoritmos creados para regular la voz en línea El discurso fue descontinuado De contenido religioso Diversidad sexual … Sistemas de IA creados para monitorear la actividad ilegal Rastrear y atacar a los defensores de derechos humanos … Y el algoritmo ha discriminado a los negros cuando están acostumbrados Detectar el cáncer También Evaluar el vuelo riesgo para las personas acusadas de delitos .. La lista continúa.

Como investigadores que estudian la intersección de la IA y la justicia social, hemos considerado soluciones desarrolladas para abordar la desigualdad de la IA. Nuestra conclusión es que dejan mucho que desear.

Ética y valores

Algunas empresas contratan voluntariamente Marco ético Es difícil de implementar y tiene poco efecto concreto. Hay dos razones. En primer lugar, la ética se basa en valores, no en derechos, y valores éticos diferentes en todo el espectro. En segundo lugar, la incapacidad para implementar estos marcos dificulta que las empresas rindan cuentas por las violaciones.

Incluso un marco obligatorio como la herramienta de evaluación de impacto algorítmica de Canadá Sirve solo como una guía para respaldar las mejores prácticas. En última instancia, el enfoque de autorregulación es retrasar el desarrollo y la implementación de la legislación que regula el uso de la IA.

Y como se explica en la regulación de IA de la Unión Europea recientemente propuesta, incluso los intentos de desarrollar una ley de este tipo tienen inconvenientes. El proyecto de ley evalúa el alcance del riesgo asociado con los diversos usos de la IA e impone obligaciones sobre estas tecnologías en proporción a la amenaza propuesta.

Sin embargo, como señaló Access Now, una organización de derechos digitales sin fines de lucro, este enfoque no es suficiente para proteger los derechos humanos. Mientras el riesgo operativo sea bajo, las empresas pueden adoptar la tecnología de inteligencia artificial.

El riesgo operativo mínimo no significa que no exista riesgo de derechos humanos. En esencia, este enfoque se ha fijado de manera desigual. Surge de la actitud de pensar que la libertad básica es negociable.

Por tanto, la pregunta sigue siendo: ¿por qué la ley permite tales abusos contra los derechos humanos? Muchos países tienen estatutos que protegen las libertades individuales de los ciudadanos. Estos derechos solo están protegidos de la intrusión del gobierno. Las empresas que desarrollan sistemas de inteligencia artificial no tienen la obligación de respetar nuestras libertades fundamentales. Este hecho se mantiene, a pesar de la creciente presencia de tecnología en formas que han cambiado radicalmente la naturaleza y la calidad de nuestros derechos.

Evento paralelo en la 76ª reunión de la Asamblea General de las Naciones Unidas sobre nuevas tecnologías y derechos humanos.

Violación de IA

Nuestra realidad actual nos está robando el ejercicio de nuestros agentes para demostrar los derechos infringidos por el uso de sistemas de IA. así, “Impide el acceso a los aspectos judiciales de la ley de derechos humanos 滫 A menos que lo exija la ley, el incumplimiento no necesariamente da lugar a una indemnización para la víctima o garantía de un incumplimiento futuro.

Pero incluso las leyes basadas en los derechos humanos a menudo tienen consecuencias similares. Piense en el Reglamento general de protección de datos de la Unión Europea Esto permite a los usuarios gestionar sus datos personales y las empresas deben respetar sus derechos. Es un paso importante hacia una protección de datos más sólida en el ciberespacio, pero la ley no tiene el efecto deseado. Hay dos razones.

principio, solución preferida No siempre permitimos que los usuarios movilicen específicamente sus derechos humanos. En segundo lugar, no empoderan a los usuarios Comprender el valor de proteger la información personal .. El derecho a la privacidad es más que simplemente ocultar algo.

Lidiando con el sesgo

Todos estos enfoques buscan mediar tanto en los intereses subjetivos de los ciudadanos como en los intereses subjetivos de la industria. Buscan proteger los derechos humanos al tiempo que se aseguran de que las leyes aprobadas no obstaculicen el progreso tecnológico. Sin embargo, este acto de equilibrio a menudo proporciona una protección fantástica sin proporcionar una protección concreta a las libertades básicas de los ciudadanos.

Para lograrlo, la solución adoptada debe adaptarse a las necesidades e intereses del individuo, no a la asunción de cuáles son esos parámetros. Para todas las soluciones Participación ciudadana.

El enfoque legislativo no aborda los sesgos idealistas y sociales de la tecnología, sino que solo tiene como objetivo regular los efectos secundarios negativos de la tecnología. Sin embargo, no es suficiente hacer frente a los abusos de los derechos humanos causados ​​por la tecnología a posteriori. La solución técnica debe basarse principalmente en los siguientes principios: Justicia social y dignidad humana, no riesgo técnico. Debe desarrollarse teniendo en cuenta los derechos humanos para garantizar una adecuada protección.

Un enfoque para ganar terreno son los derechos humanos por diseño. Aquí, “las empresas no permiten el abuso o la explotación como parte de su modelo de negocio”. Más bien, “Trabajan en el diseño de herramientas, tecnologías y servicios para respetar los derechos humanos de forma predeterminada …”

Este enfoque tiene como objetivo alentar a los desarrolladores de inteligencia artificial a considerar resueltamente los derechos humanos en todas las etapas de desarrollo. Esto asegura que los algoritmos introducidos en la sociedad mejoren, en lugar de exacerbar, la desigualdad social. Toma los pasos necesarios para dar forma a la IA, no al revés.

Este artículo Karine Gentelet, Professor et titulaire de la Chaire Abeona-ENS-OBVIA en Intelligence artificielle et justice sociale, Universidad de Quebec en Outtauai (UQO) Cuando Sarit K. Mizrahi, PhD Law Candidates L’Universit 茅 d’Ottawa / University of Ottawa Será reeditado de la conversación Bajo una licencia Creative Commons. Leer Trabajo original ..

Con el nuevo Bespoke Studio de Samsung, puedes diseñar tu propio Z Flip 3. El evento de broma de Halloween de Pokemon GO está en vivo. Entregaremos Gallarian Slowking, Shiny Spinner Rack, etc. SD Times News Digest: CockroachDB Serverless; AWS Data Exchange para Amazon Redshift; Invicti recibe una financiación de 625 millones de dólares. ¿Qué sucede si coloco un chip de iPhone en mi Mac? El condado de Nueva York inicia una nueva investigación sobre la organización Trump Latest Technology News

    Con el nuevo Bespoke Studio de Samsung, puedes diseñar tu propio Z Flip 3. El evento de broma de Halloween de Pokemon GO está en vivo. Entregaremos Gallarian Slowking, Shiny Spinner Rack, etc. SD Times News Digest: CockroachDB Serverless; AWS Data Exchange para Amazon Redshift; Invicti recibe una financiación de 625 millones de dólares. ¿Qué sucede si coloco un chip de iPhone en mi Mac? El condado de Nueva York inicia una nueva investigación sobre la organización Trump

Similar Posts

Leave a Reply