fbpx

El sesgo de la IA despierta intereses regulatorios

La IA a menudo se trata como un medio para superar los errores humanos. Pero un algoritmo es tan bueno como los datos con los que se entrena. Las brechas y los sesgos en los datos de entrenamiento pueden hacer que la inteligencia artificial funcione muy mal, incluso para algunos de los gigantes tecnológicos con las capacidades de inteligencia artificial más avanzadas.

La herramienta de reclutamiento impulsada por inteligencia artificial de Amazon supuestamente penalizó los currículums que incluían la palabra «mujeres». Se descubrió que el algoritmo de Google para detectar el discurso de odio en las redes sociales marca de manera desproporcionada los tweets de los usuarios negros antes de que se corrija. Y recientemente, la nueva tarjeta de crédito de Apple ha sido criticada por supuestamente otorgar límites de crédito más altos a los hombres que a las mujeres, lo que provocó una investigación por parte de los reguladores del estado de Nueva York.

A medida que ha aumentado el enfoque en el sesgo de la IA, las empresas de tecnología han publicado cada vez más directrices públicas al respecto. Google compartió sus “Principios de IA” poco después de retirarse del controvertido contrato militar de EE.UU. Proyecto Maven; Los principios de inteligencia artificial de Microsoft defienden las soluciones de inteligencia artificial «que reflejan principios éticos» como la equidad, la inclusión y la privacidad; e IBM nombró al control de sesgos de IA como una de sus “5 en 5” de 2018 (5 innovaciones que cambiarán nuestras vidas en 5 años), citando la importancia de “enseñar a nuestras máquinas sobre nuestros valores comunes”.

Sin embargo, esta autorregulación puede no ser suficiente. En 2019, la participación del gobierno en la regulación de la inteligencia artificial en los EE. UU. Se centró en gran medida en prohibir el uso gubernamental de la tecnología de reconocimiento facial, que en algunos estudios federales se ha demostrado que posee sesgos de raza y género. En mayo, San Francisco se convirtió en la primera ciudad importante de Estados Unidos en prohibir el uso de tecnología de reconocimiento facial por parte del gobierno de la ciudad. Ciudades como Oakland, CA, Berkley, CA y Somerville, MA han instituido prohibiciones similares.

La regulación del sesgo de la IA también ha atraído la atención a nivel federal. En abril, los senadores Wyden y Booker presentaron la «Ley de Responsabilidad Algorítmica de 2019», que autorizaría a la FTC a crear regulaciones sobre el sesgo de la IA, requiriendo que las empresas calificadas identifiquen y reparen algoritmos discriminatorios. En Europa, el gobierno se ha centrado menos en el sesgo de la IA. Pero ciertamente no ha estado completamente ausente. El Reglamento General de Protección de Datos (GDPR), ordenado en 2018, estableció algunas restricciones tempranas sobre ciertos tipos de toma de decisiones automatizadas basadas en datos personales (como algoritmos utilizados en evaluaciones de riesgo de crédito / seguro). Se espera que la regulación del sesgo de la inteligencia artificial aumente en todos los niveles de gobierno, y que las empresas de tecnología puedan tener una ventaja potencial en el cumplimiento mediante la implementación de políticas de sesgo antes de que se apruebe cualquier legislación.

Una estrategia que las empresas pueden seguir es simplemente pautas internas de desarrollo de IA más rigurosas, que incorporan barreras específicas contra los prejuicios.

Las empresas también pueden mirar hacia afuera para adaptarse a la nueva regulación de sesgo de IA, asociándose con nuevas empresas especializadas para desarrollar mejores algoritmos y cumplir con las nuevas regulaciones (como vimos con GDPR y la nueva ley de privacidad de datos de California que entró en vigencia el 1/1/20). Un enfoque podría ser las asociaciones con empresas que proporcionan «datos sintéticos». Estas empresas complementan los «datos reales» potencialmente sesgados con datos sintéticos generados especialmente para superar los sesgos y las lagunas en el conjunto de datos inicial.

Una startup, AI.Reverie, se ha especializado en esta área y tiene como objetivo «ofrecer diversas imágenes y escenarios para ayudar a los algoritmos a generalizar bien y reducir el sesgo». Ya sea que intenten gestionar el sesgo de la IA internamente o mediante asociaciones externas, las empresas de tecnología sin duda deberán adaptar sus estrategias de IA para seguir siendo competitivas y compatibles.

Fuente: CB Insights – 2020 Tech Trends

Otras novedades

junio 10, 2022

Observaciones a la Ley Orgánica Reformatoria (a varias leyes) para el Desarrollo, Regulación y Control de los Servicios Financieros Tecnológicos – Ley Fintech
Observaciones a la Ley Orgánica Reformatoria (a varias leyes) para el Desarrollo, Regulación y Control de los Servicios Financieros Tecnológicos – Ley Fintech

El ecosistema de emprendimiento en el Ecuador puede verse afectado con la aprobación de la Ley Fintech, tal como está formulada actualmente, y cuyo primer informe ya ha sido realizado por la Comisión de Desarrollo Económico de la Asamblea Nacional. Invitamos a las autoridades legislativas a revisar nuestras observaciones al proyecto de Ley Fintech, las cuales son eminentemente técnicas.

Ampliar información

agosto 13, 2021

Ponemos el tema sobre la mesa: Innovación en minería
Ponemos el tema sobre la mesa: Innovación en minería

El Ecosistema Sectorial de emprendimiento e innovación en Minería Responsable, organizó la mesa de Co-creación de Tecnología e Innovación en la Minería, un espacio de diálogo entre el sector público-privado y la academia.

Ampliar información

julio 7, 2022

Gaceta AEI Junio 2022
Gaceta AEI Junio 2022

Te presentamos los resultados de nuestros programas AEI en el mes de junio 2022. Para más información síguenos en redes sociales: En Facebook, Instagram y Twitter como @aeiecuador y en LinkedIn como AEI-Alianza para el Emprendimiento e Innovación. ¡Revisa nuestro blog de noticias y artículos, todos los lunes lo actualizamos! Potenciamos el emprendimiento e innovación para mejorar el mundo.

Ampliar información