Italia se ha convertido, esta semana, en el primer país europeo en prohibir el uso de ChatGPT, una herramienta de procesamiento de lenguaje natural basada en inteligencia artificial creada por OpenIA e impulsada por Microsoft. Al parecer, la herramienta de Sam Altman, cofundador de OpenAI, podría estar recopilando y almacenando datos personales de los usuarios europeos sin su consentimiento.
Esta supuesta infracción del Reglamento General de Protección de Datos (GDRP) que denuncia la Agencia de Protección de Datos de Italia, ha tenido efectos inmediatos en su territorio, dónde se ha prohibido y bloqueado su uso desde el pasado viernes 31 de marzo. ¿Por qué lo han prohibido?
La autoridad nacional italiana asegura que la recopilación de datos personales por parte de ChatGPT es ilegal y viola los derechos de privacidad de sus consumidores al carecer de una base jurídica que justifique el entrenamiento de los algoritmos de ChatGPT, así como la carencia de información proporcionada a los usuarios e interesados cuyos datos están siendo procesados.
Además, denuncian que el servicio no dispone de ningún sistema de verificación para comprobar la edad de los usuarios, pese a estar reservado a sujetos que hayan cumplido al menos 13 años, según los términos de uso publicados por OpenAI.
¿Se prevé que lo prohíban otros países?
Pese a que la orden sea temporal, ya se ha abierto una investigación hacia la compañía detrás del servicio, para estudiar supuestos casos de infracción del GDPR en otros países europeos.
Obligan, del mismo modo, a OpenAI a comunicar, en un plazo máximo de 20 días, las iniciativas propuestas «con el fin de aplicar lo prescrito» y proporcionar lo que «considere útil para justificar las infracciones mencionadas anteriormente». La falta de respuesta por parte de OpenAI, según el reglamento de la UE, también se castigará con sanciones administrativas.
La decisión de Italia ha generado preocupación en toda Europa. Si bien es cierto que Italia ha sido la primera en dar el paso contra OpenAI por violar el GDPR, otros países (como España) podrían seguir el mismo camino. De hecho, la Agencia Española de Protección de Datos (AEPD) explica que, aunque por el momento no han recibido ninguna reclamación sobre ChatGPT, no descartan una futura investigación en este aspecto al tratarse de una importante afectación para los derechos de las personas.
¿Cuál está siendo el peligro?
Normalmente en la escala de la innovación hay tres velocidades: primero, va la tecnología. Segundo, la legislación, que intenta seguir (cómo puede) el ritmo a la tecnología. Y, por último, la ética, esa reflexión necesaria como humanidad del impacto de esa tecnología sobre las nociones del bien y el mal, el deber, la felicidad y el bienestar común.
Recientemente, Elon Musk (CEO de Twitter) y Steve Wozniak (cofundador de Apple), entre otros, pedían públicamente a todos los laboratorios de IA que “pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”.
Una carta abierta que pone en tela de juicio los rápidos avances de los sistemas de inteligencia artificial y deja claro que, para que el desarrollo en sistemas de IA represente un cambio positivo en la historia, la humanidad necesita tomarse un tiempo para estudiar y comprender el impacto que podrían llegar a generar los modelos de inteligencia artificial.
Las dudas acerca del marco legislativo, la falta de protocolos con garantías sobre su funcionamiento y la ausencia de su regulación, empujaban a grandes líderes del sector a pedir la paralización del GPT-4. Ahora, las agencias reguladoras también. ¿Qué será lo siguiente?