Ricardo Monreal, senador por Morena, presentó una iniciativa con la que se pretende regular el desarrollo, la comercialización y el uso de sistemas de inteligencia artificial (SIA) en México.
La iniciativa con proyecto de decreto, publicada en la Gaceta del Senado, busca regular la inteligencia artificial desde un enfoque de riesgos, según se lee en el documento, algo similar a lo que ocurre en la recién aprobada regulación de la Unión Europea.
La propuesta del senador Monreal incluye que los desarrolladores o proveedores de sistemas de inteligencia artificial deberán solicitar autorización para su comercialización en territorio nacional a la autoridad competente, que en este caso es el Instituto Federal de Telecomunicaciones (IFT), según la iniciativa.
El proyecto también contempla la creación de una Comisión Nacional de Inteligencia Artificial, un órgano consultivo del IFT, y que estará integrada por “cinco científicos de reconocido prestigio en materia de desarrollo tecnológico y tecnologías de la información y su participación tendrá carácter honorífico”.
La propuesta de regulación se basa en un enfoque basado en riesgos, es decir que los usos de los desarrollos de inteligencia artificial pueden ser categorizados según el nivel de riesgo al que exponen a la sociedad. La iniciativa del senador Monreal identifica cuatro niveles de riesgo:
Riesgo inaceptable: aquellos que “puedan provocar o provoquen graves perjuicios físicos o psicológicos a las personas”, además de que puedan ser usados para la identificación biométrica.
Se consideran de riesgo inaceptable aquellos usos de la inteligencia artificial que puedan alterar de forma sustancial el comportamiento de una persona; que puedan aprovechar vulnerabilidades de grupos de personas; que puedan evaluar o clasificar a las personas según su conducta social; que pueden identificar biométricamente y de forma remota en espacios públicos a individuos sin su consentimiento y con los que se pueda alterar archivos de voz o imagen de una persona para modificar el contenido original sin autorización.
Alto riesgo: son aquellos sistemas que pueden causar un perjuicio a la salud o a la seguridad de las personas o que pueden afectar los derechos humanos de otras personas o grupos de personas.
También se consideran sistemas de alto riesgo a los que permiten la identificación biométrica de personas en espacios privados; la gestión del suministro de agua, gas y energía eléctrica; el acceso a escuelas y la evaluación de estudiantes; la contratación de trabajadores; la evaluación de personas para acceder a prestaciones, servicios públicos o programas sociales; la evaluación de la solvencia económica de las personas, entre otras.
Bajo riesgo: son aquellos cuya utilización no implica un peligro a la salud o la seguridad de las personas, o un daño o menoscabo de los derechos humanos.
Aunque los sistemas de inteligencia artificial de riesgo inaceptable quedan terminantemente prohibidos en la propuesta de regulación, la propuesta le da la potestad a a las autoridades competentes a que utilicen sistemas de inteligencia artificial capaces de manipular o alterar un contenido si el fin de esta acción es la detección, prevención, investigación o procesamiento de delitos.
Lo mismo ocurre en el caso de los sistemas de identificación biométrica de forma remota en espacios públicos, que podrían ser usados, de acuerdo con la regulación, “casos de interés público o seguridad nacional, debidamente justificados y publicitados por la autoridad responsable”.
Para poder operar, los proveedores de sistemas de inteligencia artificial de alto riesgo deberán cubrir ciertos requisitos:
- Contar con un sistema de gestión de calidad
- Elaborar y difundir la documentación técnica del sistema
- Cuando estén bajo su control, conservar los archivos de registro que sus sistemas generen automáticamente
- Asegurarse de que los sistemas sean sometidos a los procedimientos de evaluación y control humano que determine la autoridad competente antes de su introducción en el mercado o puesta en servicio
- Cumplir con las obligaciones de registro ante la autoridad competente
Además, todos los proveedores, sin importar el nivel de riesgo de su sistema de inteligencia artificial, deberán informar a sus usuarios de forma cabal que están interactuando con esta tecnología y también deben garantizar que sus sistemas puedan ser vigilados por la autoridad competente.
Entre las sanciones para quienes incumplan estas disposiciones se encuentran la amonestación pública; una multa de hasta 5% de los ingresos anuales del proveedor; suspensión temporal o cancelación de la autorización o suspensión temporal o destitución del cargo si se trata de funcionarios públicos.