Noticias

/ Proyecto de ley que regula la inteligencia artificial ingresó al Congreso

12 de Junio, 2024

Las empresas que operen dentro del ámbito establecido en el proyecto de ley deberán evaluar minuciosamente sus sistemas de IA e implementar solo aquellos sistemas que no estén prohibidos y que cumplan con los requisitos y estándares señalados en cada clasificación del riesgo.

El presidente de la República presentó el 7 de mayo de 2024 a la Cámara de Diputados un proyecto de ley para regular la inteligencia artificial (IA) en Chile (Boletín N°16821-19), que busca normar los usos de los sistemas de IA, para impulsar el desarrollo, la utilización y la adopción de esta tecnología con el propósito de promover procesos de innovación y a su vez resguardar los derechos fundamentales de las personas.

Los destinatarios de este proyecto son los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA en el territorio nacional; implementadores, importadores y distribuidores de sistemas de IA, cuando ellos o sus representantes autorizados se encuentren domiciliados en el territorio nacional; y los proveedores e implementadores de sistemas de IA domiciliados en el extranjero, cuando la información de salida del sistema de IA se utilice en Chile (art. 2).

Siguiendo la línea del AI Act (Reglamento aprobado en marzo 2024 por la Comisión Europea que crea el marco regulatorio para los sistemas de IA en la Unión Europea) el proyecto adopta un enfoque basado en el nivel de riesgos de afectación a los derechos fundamentales.

Contempla cuatro categorías de sistemas de IA, análogas a las del reglamento europeo:

1.- De riesgo inaceptable

Incompatibles con el respeto y garantía de los derechos fundamentales de las personas, por lo que su introducción en el mercado o puesta en servicio se encuentra prohibida. Ejemplos: creación de deepfakes con contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes o la identificación biométrica en tiempo real con fines distintos a la seguridad pública.

 

2.- De alto riesgo

Que pueden afectar negativamente a la salud y la seguridad de las personas, sus derechos fundamentales o el medio ambiente, así como los derechos de los consumidores, especialmente si fallan o se utilizan de forma impropia. Ejemplo: el uso de la IA en procesos de reclutamiento y contratación de personal, donde se podría evaluar y filtrar solicitudes de empleo, pudiendo influir en las oportunidades laborales de los postulantes.

 

3.- De riesgo limitado

Aquellos que su uso presente un riesgo no significativo de manipulación, engaño o error, producto de su interacción con personas naturales. Ejemplo: un chatbot de una empresa de servicio que responde a consultas específicas a usuarios, todo dentro de su esfera de competencia y sin repercutir en la seguridad o los derechos de los usuarios.

 

4.- Sin riesgo evidente

Todas aquellas que no califiquen en las categorías anteriores. Ejemplo: una aplicación que sugiera series en base a las preferencias del usuario.

La fiscalización y cumplimiento normativo se le entrega a la Agencia de Protección de Datos Personales, organismo que se creará tras la aprobación del proyecto de ley que modifica la Ley de Protección a la Vida Privada (que se encuentra en su última instancia legislativa y que dispone una vacancia legal de dos años). Para ello el proyecto considera infracciones gravísimas; graves y leves. Las multas pueden llegar hasta las 20.000 UTM. (arts. 24-27).

El proyecto representa un avance significativo en la regulación de la IA en Chile, y se alinea con los estándares internacionales como los establecidos en el AI Act. Esta iniciativa no solo promueve el desarrollo y la adopción de tecnologías de IA, sino que también garantiza la protección de los derechos fundamentales de las personas mediante una clasificación de riesgos bien definida.

Proyecto de ley disponible en el siguiente link: https://www.camara.cl/verDoc.aspx?prmID=17048&prmTIPO=INICIATIVA

Abrir chat
Gracias por comunicarte con Alessandri Abogados. Por favor, cuéntanos cómo podemos ayudarte.