La primera Ley de Inteligencia Artificial

La primera Ley de Inteligencia Artificial del mundo

La primera Ley de Inteligencia Artificial (IA), es una realidad pues la IA ha llegado para quedarse y no sólo eso, sino que está cambiando a pasos agigantados nuestra forma de trabajar e investigar (entre otros muchos ámbitos), con las ventajas y desventajas que ello conlleva.

Regular los usos y avances de la Inteligencia Artificial no es, ni será, un proceso fácil ni exento de dificultades. Sin embargo, la imperiosa realidad de la IA y el análisis de los riesgos potenciales a los cuales pueden quedar expuestos nuestros derechos y libertades ha provocado que las voluntades políticas consigan adoptar un acuerdo previo para la primera Ley de Inteligencia Artificial en el mundo.

Europa regula la Inteligencia Artificial

El pasado viernes 8 de diciembre, el Parlamento Europeo y el Consejo Europeo llegaron a un acuerdo provisional sobre la aprobación de la nueva y pionera Ley de Inteligencia Artificial (IA), siendo necesario que se ratifique en el parlamento y el consejo para que se convierta en ley obligatoria, entrando en vigor 20 días después de su publicación en el Diario Oficial.

La Ley de IA sería entonces aplicable dos años después de su entrada en vigor, salvo algunas disposiciones específicas:

6 meses después de la entrada en vigor, los Estados miembros eliminarán progresivamente los sistemas prohibidos;

12 meses: se aplican las obligaciones para la gobernanza de la IA con fines generales;

24/36 meses: todas las normas de la Ley de IA se vuelven aplicables, incluidas las obligaciones para los de alto riesgo (anexo II y III).

Puntos destacables de la Ley Inteligencia Artificial

Clasificación del riesgo:

Riesgo mínimo:

La Inteligencia Artificial se pueden desarrollar y utilizar sujeta a las condiciones legales existentes. Se entiende que los sistemas de IA que se utilizarán en Europa estarán en esta categoría.

Alto riesgo:

Sistemas de IA que pueden generar un impacto adverso en la seguridad de las personas o sus derechos fundamentales.

Riesgo inaceptable:

Un conjunto muy limitado de usos particularmente dañinos de la Inteligencia Artificial que contravienen los valores establecidos en la UE ya que violan derechos fundamentales y estarán prohibidos

Acciones prohibidas

Como consecuencia del riesgo que supone el uso de la Inteligencia Artificial para nuestros derechos y libertades, se acordó prohibir lo siguiente:

  1. Sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza);
  2. Extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial;
  3. Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas;
  4. Puntuación social basada en comportamiento social o características personales;
  5. Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío;
  6. Explotación las vulnerabilidades de las personas (por su edad, discapacidad, situación social o económica).

Sistemas de identificación biométrica (RBI)

Estos sistemas se podrán implementar en espacios de acceso público con fines policiales, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas.

Podrá utilizarse la RBI de dos maneras:

Post-remota:

La Inteligencia Artificial se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave

En tiempo real:

Cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación, para los fines de:

búsquedas selectivas de víctimas (secuestro, trata, explotación sexual)

prevención de una amenaza terrorista específica y presente,

la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales).

Tratamiento de alto riesgo

Serán de alto riesgo aquellos que puedan producir un importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. En estos casos, será obligatoria una EIPD.

Transparencia debe permear en toda acción

La ley de Inteligencia Artificial distingue entre:

Sistemas generales de Inteligencia Artificial:

Se deberá generar la documentación necesaria respecto en el ámbito técnico y normativo, que demuestren el cumplimiento de lo establecido en la ley.

Sistemas de alto impacto con riesgo sistémico:

Tiene mayores restricciones para su uso, como por ejemplo, realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas contradictorias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética.

Apoyos a las PYMES

Para que puedan implementar IA el pequeño y mediano negocio, sin las presiones de los gigantes de las industrias tecnológicas, promoviendo los llamados entornos de pruebas regulatorios y pruebas en el mundo real, establecidos por las autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.

Sanciones

El incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.

Pacto sobre Inteligencia Artificial: confiabilidad de la IA

¿En qué consiste este Pacto?

El Pacto fomentará la implementación temprana de las medidas previstas por la Ley IA a las empresas que así lo decidan de manera voluntaria, para prepararlas en el cumplimiento de las exigencias de la nueva Ley IA. Esta iniciativa estará dirigida a los actores clave de la industria de la UE y de fuera de la UE.

¿Cómo se implementará este Pacto?

Mediante declaraciones de compromiso por parte de las empresas, en donde se especifiquen las acciones desarrolladas para cumplir con la Ley IA.

La comisión publicaría estas mejores prácticas con el fin de dar visibilidad al tema y generar un ambiente de confianza y de conocimiento respecto de las exigencias de la nueva ley.

¿Cuándo funcionará este Pacto?

Tras la adopción formal de la Ley de IA, se lanzará oficialmente el Pacto de IA y se invitará a las organizaciones “pioneras” a hacer públicos sus primeros compromisos.

Si tu empresa está interesada en formar parte de esta iniciativa, puedes unirte aquí.

Contacta con Business Adapter®

Contáctanos en el email: info@businessadapter.es, también puedes llamar al 96 131 88 04, o deja tu mensaje en este formulario: