En qué consiste el proyecto de la mendocina Latorre y Facundo Manes para regular la Inteligencia Artificial

Según la diputada radical, la sanción de dicha ley posicionaría al país a la vanguardía en Latinoamérica para la promoción y el desarrollo "de las inteligencias artificiales".

La diputada mendocina Jimena Latorre, y su par Facundo Manes, presentaron un proyecto de ley en el Congreso para regular el funcionamiento ético de los sistemas de Inteligencia Artificial (IA).

Dicha inciativa, a lo largo de sus artículos, establece pautas para organizar la IA en rubros como diversidad, inclusión y paz.

Estamos frente a la cuarta revolución industrial, vivimos la fusión de lo físico, lo biológico y lo digital“, dijo Manes.

Jimena Latorre

Y agregó: “La Inteligencia Artificial nunca va a reemplazar a los humanos, vamos hacia un mundo híbrido donde le vamos a perder el miedo a la deshumanización pero valorar las cosas que nos hacen humanos”.

Por su parte, la mendocina Latorre destacó que la sanción de esta ley posicionaría a la Argentina a la vanguardia en Latinoamérica para la promoción y desarrollo “de las inteligencias artificiales y establecer parámetros éticos de utilización”, en un rango de implementaciones que va de apps a finanzas y telemedicina.

En conjunto, señalaron que la evolución de la Inteligencia Artificial debe seguir como lineamiento de base la “búsqueda de beneficios para la humanidad“, por lo que “resulta necesaria una legislación que encuadre el ciclo de vida completo de las IA sobre los más altos estándares éticos”.

Los desarrollos de la Inteligencia Artificial ya hicieron que se generen diversos proyectos de ley y de resolución en la Cámara baja del Congreso. Uno de los más recientes, introducido por siete diputados del Frente de Todos, busca declarar de interés el libro “ChatGPT: vs. GPT-4 ¿Imperfecto por diseño? Explorando los límites de la Inteligencia Artificial”, elaborado por un grupo de especialistas con apoyo de entidades como la Unesco.

Además, hay un pedido de declaración que impulsan dos diputados de Encuentro Federal (uno de ellos, Margarita Stolbizer), una del PRO y otro de Evolución Radical, para expresar su “preocupación por la militarización de la Inteligencia Artificial a nivel internacional”.

A comienzos del año pasado, Silvina García Larraburu pidió declarar de interés la aplicación de un modelo computacional para la investigación de los trastornos del espectro autista (TEA).

Qué dice el proyecto de regulación ética de la Inteligencia Artificial

  • Diversidad e inclusión. Es el primer aspecto que debe considerar la regulación, de acuerdo a los autores del proyecto. En ese sentido, los sistemas de Inteligencia Artificial deben asegurar la “participación de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen étnico o social, condición económica o cualquier otra forma o condición que pudiera alterar el respeto a la diversidad e inclusión social”.
  • Paz mundial y respeto del individuo y los grupos. El proyecto también considera que la IA debe asegurar la paz y la justicia entre las naciones. “No podrá menoscabar la libertad de los seres humanos, ni reducir su autonomía de decisión”, señalaron. Tampoco podrá “poner en riesgo la seguridad individual o colectiva, ni dividir o enfrentar a las personas y los grupos, o amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio”.
  • Registro, vigilancia y castigo. Como complemento, la propuesta incluye el agregado de un artículo a la ley 25.467, “de Ciencia, Tecnología e Innovación”, sancionada en agosto de 2001. A través de esa adenda, se insta a los creadores de sistemas de IA -“en cualquier etapa de su ciclo de vida”- a registrarlos en el Gabinete Científico-Tecnológico (GACTEC), que podrá “detener los avances de la investigación, desarrollo o aplicación cuando considere que se vulneran los principios y valores éticos”.
  • Denuncia. En relación con el punto anterior, el proyecto contempla que “toda persona física o jurídica que se considere amenazada o perjudicada por un sistema de IA podrá realizar la denuncia ante la Secretaría de Ciencia, Tecnología, e Innovación Productiva (SETCIP)”.

Artículos Relacionados

Volver al botón superior