Regulación de la inteligencia artificial 8

By Joseph Rodríguez - junio 12, 2022

 Aspectos que no se han mencionado sobre las regulaciones de la UE


Asistentes virtuales, procesos de selección de empleados o contratación de un seguro. Las aplicaciones de inteligencia artificial (IA) están en el día a día del ciudadano y los avances suelen ir acompañados de advertencias sobre posibles malos usos de esta tecnología. La Unión Europea dio un paso al frente y hace un año presentó una propuesta para una normativa pionera en el mundo, que divide las tecnologías de IA en cuatro categorías en función del riesgo que puedan suponer para los ciudadanos. Pero algunos expertos apuntan que hay aplicaciones complejas que, en su redacción actual, podrían quedar fuera de regulación. Sanidad, coches autónomos y armamento, entre otras.

La UE debate los últimos flecos de la normativa sobre la IA, que podría estar lista en 2023. Una regulación que es “única en el mundo” por sus características, si bien deja aspectos importantes en zona de sombra, opina Lucía Ortiz de Zárate, investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid. Ortiz de Zárate ha presentado junto a la Fundación Alternativas comentarios a la propuesta de la Comisión. Algunos de ellos han sido recogidos en la última versión de la propuesta. Otros no.

Esta investigadora echa en falta que haya sectores sensibles que no queden incluidos en las clasificaciones de la inteligencia artificial más vigiladas, como es el caso de la sanidad. “Hay una lista larga de aplicaciones y la sanidad no aparece en ninguna”, señala. Solo se menciona que la norma velará porque las tecnologías “no supongan un riesgo para la salud”. Pero no se recogen aplicaciones que, por ejemplo, usen datos sanitarios, de salud pública, o de medicina.

Otro de los usos más conocidos de la inteligencia artificial, el de los coches autónomos, tampoco se menciona en la norma, lo que exigiría más transparencia y mayor control por parte de las autoridades. Ortiz de Zárate reconoce que existe un “debate complejo” entre cuánto se debe regular y cuánto se debe dejar de margen a la innovación para permitir avances. Tampoco se incluye en la regulación ninguna mención a las armas autónomas, cuyo funcionamiento se basa también en la inteligencia artificial.

Uno de los comentarios a la norma europea que sí se ha tenido en cuenta se refiere a la definición de inteligencia artificial, explica la investigadora de la Universidad Autónoma. El concepto de IA dejó en un momento fuera el hardware y se centró solamente en el software. “Era muy peligroso dejarlo fuera porque muchos problemas de sesgo derivan del hardware”. Ortiz de Zárate pone como ejemplos asistentes de voz como Siri, Alexa o los robots, que tienen soporte físico y son “fuentes de discriminación porque perpetúan estereotipos nocivos para la mujer” como el del “rol asistencial”. Tras los comentarios, el texto ha vuelto a incluir el hardware dentro de la definición. El concepto de inteligencia artificial “no depende tanto de qué técnicas se usan, sino de las funcionalidades”, asevera.

Además, la investigadora cree que la norma de las aplicaciones de bajo riesgo debería ir más allá de un mero código de conducta. “Son las aplicaciones que más usan los ciudadanos”, por lo que habría que intentar acabar con sesgos como el de género “que parecen menores pero que son frecuentes”. Pueden, por tanto, suponer un “coladero de estereotipos” si no se les pone freno.


  • Share:

You Might Also Like

0 comments