Para construir una IA responsable, los datos se deben recabar de forma ética

Al usar Inteligencia Artificial (IA) en entornos laborales, las empresas buscan que la tecnología complemente las tareas de los trabajadores para aumentar su productividad; sin embargo, incluso en esos contextos, la ética y transparencia son elementos fundamentales para recabar información que entrena a los sistemas. Durante el desarrollo de las innovaciones en IA, las polémicas en torno a enfoques misóginos o racistas han generado mucha controversia y es por ello que grandes empresas como Microsoft están adoptando marcos para construir sistemas de manera responsable. John Montgomery, vicepresidente corporativo de la plataforma de Inteligencia Artificial de Microsoft, menciona que desde esta compañía han establecido seis pilares en torno a la recolección responsable de datos para la IA en todos sus productos. Estos son “privacidad, transparencia, responsabilidad, equidad, confiabilidad y seguridad”.

Además, destaca que si bien son estándares dentro de Microsoft, también priorizan que sus clientes usen responsablemente sus modelos de IA, pues incluso hay casos de modelos con acceso a información biométrica, la cual puede ser sensible si es usada de forma maliciosa. “Una forma responsable de usar esa data es determinar que únicamente se trata de un rostro”, es decir, tomar indicadores generales donde se determine que se trata del rostro de una persona y no de aspectos específicos que permitan conocer más información del individuo en cuestión. A mediados de junio, Microsoft presentó el Estándar de IA responsable, un documento guía para desarrollar tecnología más confiable, donde la empresa estableció los seis valores centrales para que la tecnología sea responsable por diseño. “La IA se está convirtiendo cada vez más en una parte de nuestras vidas y, sin embargo, nuestras leyes se están quedando atrás. No se han puesto al día con los riesgos únicos de la IA o las necesidades de la sociedad” ,problematiza Natasha Crampton, directora responsable de IA en Microsoft.

¿Cuánta información es suficiente? Montgomery destaca que el uso de IA se está extendiendo cada vez más, debido a que se aplica en aquellas cosas que los humanos consideran aburridas o tediosas, haciéndolos sentir empoderados. No obstante, destaca que la información que junten estos sistemas no depende de ellos, sino de los objetivos que las personas desean alcanzar. En México, el hospital Luis Sánchez Bulnes, Microsoft, y la Asociación para Evitar la Ceguera, entre otras organizaciones, crearon un algoritmo basado en IA para detectar con mayor precisión la ceguera en recién nacidos por medio de una fotografía del fondo del ojo con un teléfono móvil. Para este caso de uso, explica Montgomery, se usaron 6,000 imágenes para entrenar el algoritmo que alcanzó una efectividad de 85%, comparado con 60% de los humanos y es utilizado para evitar la ceguera en bebés, pues según datos del hospital, diariamente 12 niños pierden su visión a causa del diagnóstico tardío de Retinopatía del Prematuro. “Son cosas que la IA cambia drásticamente para hacerlas más asequibles”, sentencia el especialista, quien también resalta que para el entrenamiento de la tecnología se usaron repositorios de imágenes de libre acceso en los cuales también asumieron un rol ético para usar los datos y entrenar al sistema.

]]>

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Generated by Feedzy