La Inteligencia Artificial ya está regulada por ley en la Unión Europea. Se trata de la primera norma integral sobre la IA del mundo. Según informa Hugo Domínguez, las empresas que utilicen esta tecnología -que ya se puede utilizar para detectar voces falsas- tendrán que adaptarse al nuevo marco y se enfrentarán a sanciones millonarias si las incumplen. Y es que cada vez más, las compañías incluyen la IA en sus negocios y esto puede implicar diversos riesgos.
La nueva ley que regula la Inteligencia Artificial incide en la importancia de que los sistemas que se utilicen sean seguros y respeten los derechos de las personas. Así, establece diferentes niveles de riesgo: los mínimos, los limitados, los altos y los “inaceptables”, estos dos últimos serán los más vigilados.
Entre los prohibidos, "se incluyen los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la 'puntuación social' por parte de gobiernos o empresas y determinadas aplicaciones de la actuación policial predictiva", incide la Comisión Europea.
La Ley Europa de Inteligencia Artificial (Ley de IA) entra hoy en vigor y afecta tanto a las personas como a las empresas. Dentro de las diferentes categorías de riesgo, encontramos los usos expresamente prohibidos. Aquí, destacan los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas, por raza u orientación sexual. La norma pretende frenar los abusos y garantizar la seguridad y protección.
El reglamento se centra en los sistemas de IA de alto riesgo, es decir, “aquellos que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas". Esta ley tiene el objetivo de limitar los programas de reconocimiento facial para que no se puedan usar imágenes captadas de cámaras para que, a través de la IA, se puedan hacer bases de datos. Las imágenes, las fotos y escritos creados con esta tecnología tendrán que ir con un aviso de que fue creado con IA para evitar la desinformación. A las aplicaciones como 'ChatGPT', se les exigirá más transparencia para saber cómo las han entrenado.
La norma obliga a disponer de directrices de desarrollo e implementación más estrictas con la incorporación de prácticas de codificación seguras y garantizando que los sistemas de IA sean resistentes a los ciberataques. Así, reclama a las empresas que adopten medidas para afrontar las brechas de seguridad y que sean más transparentes para ayudar a identificar vulnerabilidades y mitigar las posibles amenazas.
La Comisión Europea señala que se impondrán multas a las compañías que no cumplan las normas, unas sanciones que podrían ascender hasta los 35 millones de euros o el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta. La norma no se desplegará hasta dentro de dos años y muchos expertos apuntan que esta ley tan necesaria nace obsoleta porque la IA evoluciona muy rápido.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.