Los asistentes de voz ponen en la mesa la discusión sobre derechos de la IA

La violencia es inaceptable en todas las escalas, incluso cuando se está cometiendo ante inteligencias no humanas. De acuerdo con Google, en México, su asistente de voz tuvo un 2% de consultas ofensivas o abusivas dentro de las consultas que realizaron los usuarios en el último año, un mensaje que la empresa considera emergente por atender. “Parte del comportamiento que tienen los usuarios con este tipo de dispositivos refleja una realidad social que se vive en el país y debemos evitar que se normalice la violencia en cualquier escala”, señaló durante su presentación en Google for México, Nicolás Mamboury, director de mercadotecnia en la tecnológica. La compañía reveló que la voz femenina del Asistente es un 27% más atacada que la masculina, específicamente con comentarios misóginos, mientras que la voz masculina tampoco está exenta de abusos verbales ante los usuarios mexicanos, ya que también recibe comentarios negativos, principalmente homofóbicos. En detalle, la voz femenina ha recibido 25% de insultos; 25% comentarios sobre su apariencia física; 12% de misoginia; y 35% de comentarios de acoso sexual. En el caso de la masculina ha recibido 27% de insultos; 13% de comentarios de homofobia; y 22% de acoso sexual. “Si ponemos esto en cifras donde entre el 2014 y el 202 fueron asesinadas al menos 2,800 personas de la comunidad LGBTQA+, la normalización de esta conducta puede ser perjudicial”, precisó Mamboury. Por ello, la empresa lanzó #NoMeHablesAsí, una campaña donde se busca corregir este tipo de conductas, de parte de los usuarios, sin embargo, también pone en la mesa, la ética con la que se consume la Inteligencia Artificial.

¿Es posible que los robots tengan derechos? Los alcances de la IA han generado soluciones para distintas industrias, incluyendo la de servicios, donde han logrado ganar terreno en trabajos, sin embargo Theodore F. Claypoole en su artículo para The National Law Review señala que las máquinas sólo podrán tener derechos cuando tengan ambiciones. Aunque la iniciativa de Google está enfocada en evitar que insulten a los gadgets, se busca un cambio social. “Una inteligencia artificial que no es capaz de comprender los propósitos del privilegio y el castigo no está lista para enfrentarse a ellos de forma legal. Para que las máquinas puedan ser consideradas como una entidad pensante, deben tener aspiraciones más allá de para las que fueron programadas en un principio”, precisa Claypoole. La inteligencia artificial debe mostrar aspiraciones más amplias con las que disfrutar de sus derechos, y debe tener la capacidad de decepcionarse por los castigos legales y las injusticias.

]]>

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Generated by Feedzy