Un equilibrio entre modelos fuertes y sesgos potenciales TechCrunch
Otras publicaciones de este colaborador
Aunque han surgido algunos modelos básicos que dependen del tamaño de los datos de entrenamiento inherentemente fuertes, no están exentos de riesgo de sesgo dañino. Tenemos que ser conscientes de ese hecho todos juntos.
El reconocimiento en sí es fácil. Además de mitigar los riesgos futuros, es mucho más difícil de entender. En resumen, para comprender mejor los riesgos asociados con el desarrollo de modelos de IA, primero debemos tomar medidas para asegurarnos de comprender las raíces de estos sesgos.
Despreciable origen del prejuicio
Los modelos de IA de hoy en día suelen estar preentrenados y son de código abierto, lo que permite a los investigadores y las empresas implementar rápidamente la IA y adaptarla a sus necesidades específicas.
Si bien este enfoque hace que la IA esté más disponible comercialmente, tiene inconvenientes reales. Esto significa que una pequeña cantidad de modelos ahora son compatibles con la mayoría de las aplicaciones de inteligencia artificial de la industria y de todo el continente. Estos sistemas están plagados de sesgos no detectados o desconocidos. Es decir, los desarrolladores que adaptan sus sistemas a sus aplicaciones están trabajando desde una base vulnerable.
Según un estudio reciente Según el Centro para la Investigación de Modelos Básicos de la Universidad de Stanford, los sesgos en estos modelos básicos o los datos a partir de los cuales se construyen son heredados por quienes los usan, creando el potencial de amplificación.
Por ejemplo, el YFCC100M es un conjunto de datos publicado por Flickr que se usa comúnmente para entrenar modelos. Examinar las imágenes de personas en este conjunto de datos revela la distribución de imágenes en todo el mundo Muy sesgado hacia los Estados UnidosEs decir, hay una escasez de representantes de personas de otras regiones y culturas.
Estos tipos de sesgos en los datos de entrenamiento dan como resultado modelos de IA con un sesgo de subexpresión o sobreexpresión en la salida. Es decir, la salida es más dominante para la cultura blanca u occidental. La combinación de múltiples conjuntos de datos para crear grandes cantidades de datos de capacitación puede perder transparencia y dificultar cada vez más saber si las personas, las regiones y las culturas están bien equilibradas. No es sorprendente que el modelo de IA resultante quede expuesto con el terrible sesgo que contiene.
Además, cuando se publica el modelo básico de IA, generalmente proporciona poca o ninguna información sobre esas limitaciones. La búsqueda de problemas potenciales se deja al usuario final para probar. Este es un paso que a menudo se pasa por alto. Sin una comprensión completa de la transparencia y los conjuntos de datos específicos, es difícil detectar las limitaciones en los modelos de IA, como el desempeño deficiente en mujeres, niños y países en desarrollo.
Getty Images utiliza una serie de pruebas que incluyen imágenes de experiencias del mundo real, como diferentes niveles de habilidad, fluidez de género y estado de salud, para evaluar la presencia de sesgo en los modelos de visión por computadora. No podemos capturar todos los prejuicios, pero reconocemos la importancia de visualizar el mundo inclusivo, es importante entender lo que puede existir y confrontarlo cuando sea posible. Siento que.
Aproveche los metadatos para reducir el sesgo
Entonces como haces esto? Cuando utilice IA con Getty Images, comience por observar un desglose de las personas en su conjunto de datos de capacitación, incluidos la edad, el género y el origen étnico.
Afortunadamente, necesitamos una versión modelo de contenido creativo con licencia para poder hacerlo. Esto permite que los metadatos incluyan información de autoidentificación (es decir, conjuntos de datos que describen otros datos). Esto permite que los equipos de IA busquen automáticamente millones de imágenes e identifiquen rápidamente los sesgos de los datos. Los conjuntos de datos de código abierto a menudo están limitados por la falta de metadatos. Este es un problema exacerbado cuando se combinan conjuntos de datos de múltiples fuentes para crear un grupo más grande.
Pero piensa de manera realista. No todos los equipos de IA tienen acceso a una gran cantidad de metadatos, y nuestro equipo tampoco es perfecto. Hay compensaciones únicas. Los datos de entrenamiento más grandes conducen a un modelo más poderoso a expensas de comprender el sesgo y el sesgo de esos datos.
Dado que la industria de la IA se basa en esta compensación en todo el mundo, es importante encontrar una manera de superar esta compensación. La clave es aumentar el enfoque en los modelos de IA centrados en datos. El movimiento empezó a hacerse más fuerte..
¿Adónde vas desde aquí?
Enfrentarse al estigma de la IA no es una tarea fácil y requerirá la colaboración de toda la industria tecnológica en los próximos años. Sin embargo, hay precauciones que los profesionales ahora pueden tomar para hacer cambios pequeños pero notables.
Por ejemplo, una vez que se publica el modelo base, se puede lanzar el modelo correspondiente. hoja de datos Describe los datos de entrenamiento subyacentes y proporciona estadísticas descriptivas para el contenido del conjunto de datos. Hacerlo proporciona a los usuarios posteriores una idea de las fortalezas y limitaciones del modelo, lo que les permite tomar decisiones informadas. El impacto puede ser enorme.
Como se mencionó anteriormente, el estudio El modelo básico plantea la pregunta: “¿Cuál es el conjunto correcto de estadísticas sobre los datos para proporcionar la documentación correcta sin que sea demasiado costoso o difícil de obtener?” Especialmente para los datos visuales, los investigadores idealmente proporcionan distribuciones como edad, género, raza, religión, región, capacidad, orientación sexual y estado de salud. Sin embargo, estos metadatos son costosos y difíciles de recuperar en grandes conjuntos de datos de múltiples fuentes.
Un enfoque complementario es dar a los desarrolladores de IA acceso a una lista de sesgos conocidos y restricciones generales en el modelo subyacente. Esto podría incluir el desarrollo de una base de datos de prueba de sesgos de fácil acceso que los investigadores de IA puedan contribuir de forma regular, especialmente teniendo en cuenta cómo las personas usan estos modelos.
Por ejemplo, recientemente la competencia de Twitter le pidió a los expertos en IA que aclararan el sesgo del algoritmo (¿recuerdan que dije que la cognición y la cognición son las claves para la mitigación?). En todas partes, necesito más de esto. Mediante la práctica regular de este tipo de crowdsourcing, se puede reducir la carga de los profesionales individuales.
Todavía no tenemos todas las respuestas, pero la industria necesita observar de cerca los datos que utiliza como una solución modelo más poderosa. Hacerlo es costoso, amplifica el sesgo, y debemos aceptar el papel que desempeñamos en la solución. Especialmente cuando usamos sistemas de IA para representar e interactuar con personas reales, necesitamos encontrar formas de comprender mejor los datos de entrenamiento que estamos usando.
Este cambio de pensamiento ayuda a las empresas de todos los tipos y tamaños a encontrar rápidamente sesgos, contrarrestarlos durante la fase de desarrollo y reducir el sesgo.
Facebook multado con casi $ 70 millones por violar la orden de Giphy Far Cry 6: cómo encontrar y abrir todos los cofres de texto cifrado El tutorial de desarrollo de bloques definitivos Los vikingos vivían en América del Norte por al menos 1021 La tecnología de eventos del Reino Unido se amplía HeadBox cierra 拢 2m para acelerar global expansión
Últimas noticias de tecnología
- Facebook multado con casi $ 70 millones por violar la orden de Giphy Far Cry 6: cómo encontrar y abrir todos los cofres de texto cifrado El tutorial de desarrollo de bloques definitivos Los vikingos vivían en América del Norte por al menos 1021 La tecnología de eventos del Reino Unido se amplía HeadBox cierra 拢 2m para acelerar global expansión