Proteger secretos corporativos en la era de Chat GPT: Cómo evitar filtrar datos sensibles
Tecnología | España | Redacción | 28/06/2023

Los nuevos modelos de lenguaje inteligente han creado nuevas oportunidades en el ámbito empresarial. ChatGPT, diseñado para aprender a partir de grandes volúmenes de datos y generar respuestas coherentes basadas en modelos de Deep Learning, ofrece la posibilidad de agilizar tareas y mejorar la eficiencia de procesos en el entorno empresarial.
Sin embargo, esta herramienta también plantea riesgos de ciberataques y filtraciones de información confidencial tanto de la propia empresa como de clientes externos. Desde ERNI, una empresa suiza de ingeniería de software especializada en soluciones complejas, advierten que «al introducir datos en herramientas como ChatGPT, perdemos el control sobre ellos». Según Alberto Martín, director de Tecnología e Innovación en ERNI Consulting España, si bien la IA tiene un potencial transformador para las empresas, también plantea desafíos en términos de protección de datos confidenciales y personales.
Para proteger la información confidencial y garantizar el uso responsable de la IA, es fundamental capacitar adecuadamente a los empleados para que sean conscientes de qué tipo de información se puede compartir de manera segura, evitando la divulgación involuntaria de secretos corporativos.
Martín señala que «algunas empresas optan por utilizar sus propias herramientas de IA Generativa en la nube, lo que les permite trabajar con datos internos en un entorno cerrado que no permite el acceso público a esos datos». En estos casos, es crucial asegurarse de que los proveedores de servicios en la nube cumplan con su responsabilidad de proteger los datos.
La UE está finalizando la primera regulación sobre IA
Con la tecnología avanzando a un ritmo acelerado, este mismo mes de junio, los miembros del Parlamento Europeo han aprobado iniciar negociaciones entre los Estados miembros y el Consejo de la UE sobre el «EU AI Act», la primera regulación sobre Inteligencia Artificial (IA).
Con el objetivo de llegar a un acuerdo definitivo antes de fin de año, la UE ha dado este paso para «garantizar mejores condiciones de desarrollo y uso» de la IA, promoviendo su seguridad, transparencia, trazabilidad, no discriminación y respeto al medio ambiente. Esta normativa, en su propuesta inicial, establece tres niveles de regulación diferentes según los posibles riesgos de los sistemas.