fbpx

El sesgo de la IA despierta intereses regulatorios

La IA a menudo se trata como un medio para superar los errores humanos. Pero un algoritmo es tan bueno como los datos con los que se entrena. Las brechas y los sesgos en los datos de entrenamiento pueden hacer que la inteligencia artificial funcione muy mal, incluso para algunos de los gigantes tecnológicos con las capacidades de inteligencia artificial más avanzadas.

La herramienta de reclutamiento impulsada por inteligencia artificial de Amazon supuestamente penalizó los currículums que incluían la palabra «mujeres». Se descubrió que el algoritmo de Google para detectar el discurso de odio en las redes sociales marca de manera desproporcionada los tweets de los usuarios negros antes de que se corrija. Y recientemente, la nueva tarjeta de crédito de Apple ha sido criticada por supuestamente otorgar límites de crédito más altos a los hombres que a las mujeres, lo que provocó una investigación por parte de los reguladores del estado de Nueva York.

A medida que ha aumentado el enfoque en el sesgo de la IA, las empresas de tecnología han publicado cada vez más directrices públicas al respecto. Google compartió sus “Principios de IA” poco después de retirarse del controvertido contrato militar de EE.UU. Proyecto Maven; Los principios de inteligencia artificial de Microsoft defienden las soluciones de inteligencia artificial «que reflejan principios éticos» como la equidad, la inclusión y la privacidad; e IBM nombró al control de sesgos de IA como una de sus “5 en 5” de 2018 (5 innovaciones que cambiarán nuestras vidas en 5 años), citando la importancia de “enseñar a nuestras máquinas sobre nuestros valores comunes”.

Sin embargo, esta autorregulación puede no ser suficiente. En 2019, la participación del gobierno en la regulación de la inteligencia artificial en los EE. UU. Se centró en gran medida en prohibir el uso gubernamental de la tecnología de reconocimiento facial, que en algunos estudios federales se ha demostrado que posee sesgos de raza y género. En mayo, San Francisco se convirtió en la primera ciudad importante de Estados Unidos en prohibir el uso de tecnología de reconocimiento facial por parte del gobierno de la ciudad. Ciudades como Oakland, CA, Berkley, CA y Somerville, MA han instituido prohibiciones similares.

La regulación del sesgo de la IA también ha atraído la atención a nivel federal. En abril, los senadores Wyden y Booker presentaron la «Ley de Responsabilidad Algorítmica de 2019», que autorizaría a la FTC a crear regulaciones sobre el sesgo de la IA, requiriendo que las empresas calificadas identifiquen y reparen algoritmos discriminatorios. En Europa, el gobierno se ha centrado menos en el sesgo de la IA. Pero ciertamente no ha estado completamente ausente. El Reglamento General de Protección de Datos (GDPR), ordenado en 2018, estableció algunas restricciones tempranas sobre ciertos tipos de toma de decisiones automatizadas basadas en datos personales (como algoritmos utilizados en evaluaciones de riesgo de crédito / seguro). Se espera que la regulación del sesgo de la inteligencia artificial aumente en todos los niveles de gobierno, y que las empresas de tecnología puedan tener una ventaja potencial en el cumplimiento mediante la implementación de políticas de sesgo antes de que se apruebe cualquier legislación.

Una estrategia que las empresas pueden seguir es simplemente pautas internas de desarrollo de IA más rigurosas, que incorporan barreras específicas contra los prejuicios.

Las empresas también pueden mirar hacia afuera para adaptarse a la nueva regulación de sesgo de IA, asociándose con nuevas empresas especializadas para desarrollar mejores algoritmos y cumplir con las nuevas regulaciones (como vimos con GDPR y la nueva ley de privacidad de datos de California que entró en vigencia el 1/1/20). Un enfoque podría ser las asociaciones con empresas que proporcionan «datos sintéticos». Estas empresas complementan los «datos reales» potencialmente sesgados con datos sintéticos generados especialmente para superar los sesgos y las lagunas en el conjunto de datos inicial.

Una startup, AI.Reverie, se ha especializado en esta área y tiene como objetivo «ofrecer diversas imágenes y escenarios para ayudar a los algoritmos a generalizar bien y reducir el sesgo». Ya sea que intenten gestionar el sesgo de la IA internamente o mediante asociaciones externas, las empresas de tecnología sin duda deberán adaptar sus estrategias de IA para seguir siendo competitivas y compatibles.

Fuente: CB Insights – 2020 Tech Trends

Otras novedades

marzo 2, 2021

CONVOCATORIA Apuesta Ecuador – 1era edición
CONVOCATORIA Apuesta Ecuador – 1era edición

¿Qué es? ‘Apuesta Ecuador’ es una iniciativa de Revista Líderes de Grupo El Comercio que reconoce el trabajo y compromiso del emprendedor y el pequeño y mediano empresario con la reactivación de nuestro país. Este proyecto multimedia impulsa el desarrollo de productos y servicios “esenciales” es decir aquellos que hayan resultado especialmente útiles a los [...]

Ampliar información

diciembre 20, 2021

El deporte y el Covid: la tecnología ha redefinido cómo nos ejercitamos
El deporte y el Covid: la tecnología ha redefinido cómo nos ejercitamos

El confinamiento, distanciamiento físico y el cierre de lugares concurridos, como los gimnasios, han impulsado a la diversificación de servicios y productos enfocados a mantener saludables y en forma a las personas.

Ampliar información

noviembre 23, 2020

La incubación de emprendimientos dinámicos en el Ecuador
La incubación de emprendimientos dinámicos en el Ecuador

Por: Marcos Vega, Director Ejecutivo, Prendho. El Ecuador se ha destacado en la última década por mostrar excelentes indicadores  en el Reporte Global Entrepreneurship Monitor (GEM). El último informe de 2019- 2020 muestra que el TEA nacional es de 36.2% (la segunda más alta de 50  economías analizadas). De cada 100 ecuatorianos entre los 18 […]

Ampliar información