El gobierno de Italia puso contra las cuerdas al famoso al ChatGPT de OpenAI por filtrar información privada de los usuarios. Esta situación, llevó a que desde el organismo de regulación de datos de ese país (Garante per la Protezione dei dati personali) pidieran detener el uso del chatbot en esa nación.
El hecho fue confirmado por una empresa referente en el rubro de soluciones de ciberseguridad mundial conocida como Check Point Software Technologies (NASDAQ: CHKP). El proveedor detalló que el último 20 de marzo se filtraron conversaciones de los usuarios con GPT y se revelaron datos privados como las facturas y tarjetas de crédito de los suscriptores.
De todos modos, destacaron que ya se iniciaron acciones legales y se realizará una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).
Según el comunicado oficial del garante italiano, actualmente ChatGPT “no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI“, agregó “la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento” y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.
¿Es peligrosa la inteligencia artificial?
El dilema en cuanto a lo positivo y lo negativo de la IA predomina fuerte desde su llegada. Ya se realizó una colecta de mil firmas para detener su desarrollo, impulsada por Elon Musk, pero también existen opositores a este freno como Bill Gates, quien está a favor de esta tecnología revolucionaria.
Paal Aaserudseter, ingeniero de seguridad de Check Point Software, declaró que “El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT”.
“El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido”, expusó el ingeniero.
De todos modos, aclararon que no hay que quedarse con la idea de que la inteligencia artificial puede reemplazar nuestras tareas cotidianas, ya que ha mostrado deficiencias en su uso, propagando la información falsa.
¿Qué medidas se evalúan tomar frente al ChatGPT?
Establecer pautas éticas: debe haber pautas éticas claras para el desarrollo y la utilización de la IA que estén alineadas con los valores y principios sociales, como la transparencia, la responsabilidad, la privacidad y la equidad.
Fomentar la transparencia: las empresas y desarrolladores deben ser transparentes acerca de sus sistemas de IA, incluida la forma en que están diseñados, capacitados y probados.
Asegurar la privacidad: las empresas deben priorizar la protección de la privacidad de los usuarios, especialmente cuando se trata de datos confidenciales, implementando protocolos sólidos de protección de datos y proporcionar explicaciones claras sobre cómo se recopilan, almacenan y utilizan los datos de los usuarios.
Priorizar la seguridad: la seguridad debe ser una prioridad máxima en el desarrollo de la IA, y se deben implementar mecanismos para prevenir los daños causados por los sistemas de IA. Esto incluye el desarrollo de protocolos de prueba sólidos y la implementación de mecanismos a prueba de fallos y vulnerabilidades.
Fomento de la innovación: los gobiernos deben proporcionar fondos y recursos para apoyar la investigación y el desarrollo en IA, al mismo tiempo que garantizan que la innovación se equilibre con una gobernanza responsable.
Fomentar la participación pública y la accesibilidad: debe haber oportunidades para la participación pública y la participación en el desarrollo y la regulación de la IA, para garantizar que se consideren las necesidades y preocupaciones del público. Las empresas deben diseñar sus sistemas de IA para que sean accesibles para todos los usuarios, independientemente de sus capacidades físicas o experiencia técnica, proporcionando instrucciones claras e interfaces de usuario que sean fáciles de entender y usar.
Qué dicen sobre la seguridad en OpenAI
Voceros de OpenAI en lo que respecta a la seguridad dijeron que “creemos que los potentes sistemas de IA deben estar sujetos a rigurosas evaluaciones de seguridad. Se necesita regulación para garantizar que se adopten tales prácticas, y nos involucramos activamente con los gobiernos en la mejor forma que podría tomar dicha regulación“.
También, sostuvieron que no pueden predecir “todas las formas beneficiosas en que las personas usarán nuestra tecnología , ni todas las formas en que las personas abusarán de ella. Es por eso que creemos que aprender del uso en el mundo real es un componente crítico para crear y lanzar sistemas de IA cada vez más seguros con el tiempo”.
Por ahora, la primer medida contra la inteligencia artificial la tomó Italia, pero es probable que más países y la propia Unión Europea tomen medidas similares durante los próximos días.