Check Point Software Technologies Ltd. es un proveedor líder de soluciones de ciberseguridad para empresas y gobiernos de todo el mundo. La cartera de soluciones de Check Point Infinity protege a las empresas y organizaciones públicas de los ciberataques de 5ª generación con una tasa de captura líder en la industria de malware, ransomware y otras amenazas.
¿Ha llegado la hora de decir adiós a ChatGPT en España? ¿Existe un riesgo real para tener que bloquear el acceso a esta herramienta?
Si bien todavía es pronto para dar una respuesta en rotundo, es cierto que a la popular herramienta de Inteligencia Artificial se enfrenta a una fuerte polémica no sólo en España, sino en toda la Unión Europea.
Tal y como señalan nuestros expertos de Check Point Research, el reciente robo de cuentas Premium de ChatGPT ha descubierto una problemática que afecta directamente al Reglamento General de Protección de Datos (RGDP), ya que los ciberdelincuentes no sólo están robando la información básica de los perfiles, sino también los datos almacenados de las consultas recientes realizadas a través de la herramienta y otros datos sensibles.
Hemos visto cómo Italia imponía ya una restricción para el uso de ChatGPT, similar a las georrestricciones impuestas por la propia OpenIA en el territorio ruso, mientras que otros países como Alemania están estudiando la situación y amenazan con seguir los mismos pasos.
Así pues, para el caso concreto de España, no se ha emitido ninguna pauta por parte del gobierno ni desde la Unión Europea, por lo que el uso de la herramienta, aunque desrecomendado desde el punto de vista de la ciberseguridad, sigue disponible.
En la famosa carta firmada por grandes voces del desarrollo tecnológico se pedía parar el desarrollo de las siguientes versiones de ChatGPT ¿A qué se debe y qué consecuencias puede tener desoír estas advertencias?
Voces influyentes del sector como Elon Musk, fundador y exdirectivo de la propia OpenAI, forman parte de esta petición con el objetivo de frenar el rápido desarrollo y entrenamiento de las herramientas de Inteligencia Artificial como ChatGPT.
Aunque estas IAs sin duda suponen un componente principal para el futuro, una gran parte de los expertos piensan que todavía existe una ausencia de regulaciones que aseguren un desarrollo de esta tecnología de forma más ética.
A través de lo que para nosotros son simples conversaciones, estas herramientas presentan la impresionante capacidad de buscar a través de una base de datos con más de 175 millones de parámetros para, mediante diferentes algoritmos y métodos aprendidos previamente, ofrecernos una respuesta lo más acorde a nuestras demandas. Pero quizás más interesante resulta la capacidad prácticamente infinita de aprendizaje de esta máquina, cuya información disponible que no hace más que ir en aumento, aprendiendo de manera simultánea a la que va dando respuesta a las preguntas y premisas de cada usuario que lo usa.
De hecho, tal y como estamos viendo con los innumerables ejemplos detectados por nuestra compañía, estas herramientas pueden explotarse con fines maliciosos, y suponen un problema de seguridad importante a nivel mundial. La llegada de la Inteligencia Artificial al repertorio de herramientas de los ciberdelincuentes implica principalmente un crecimiento en el número de ataques, así como una mayor sofisticación en los mismos.
No obstante, más importante que la detención de estos desarrollos es, sin duda, la necesidad de la creación de unos marcos regulatorios por parte de los gobiernos internacionales que se adapten a estas nuevas posibilidades.
¿Cuáles son los principales beneficios que ofrece la implementación de este tipo de inteligencias artificiales en los entornos empresariales y cuáles son las principales limitaciones?
La Inteligencia Artificial ofrece la posibilidad de realizar razonamientos lógicos a una velocidad y eficiencia mucho mayores que las de una persona, mejorando en gran medida los flujos de trabajo de algunas tareas.
Pese a que esta tecnología no está considerada en sí como maliciosa, cabe resaltar que el uso de este tipo de herramientas debería estar muy controlado en entornos empresariales debido al posible mal uso de éstas y a efectos o consecuencias en la privacidad y confidencialidad no solamente en términos de afectación a la propia empresa sino también de sus cumplimientos normativos.
Ya se han podido identificar numerosos casos en los que los usuarios han compartido información sensible y crítica de las compañías en las que trabajan y que puede la cual, tal y acabar en manos de los ciberdelincuentes.
¿Por qué es tan popular el uso de estas herramientas entre los ciberdelincuentes? ¿Cuál es su rentabilidad?
Actualmente se puede apreciar el gran crecimiento del interés general no sólo por ChatGPT, sino por el cada vez mayor surtido de este tipo de incipientes herramientas de inteligencia artificial generativa. Una tendencia que apunta a ir en aumento durante los próximos años.
Concretamente en el caso de los ciberdelincuentes, este interés viene propiciado por la sencillez que estas herramientas ofrecen a la hora de generar, depurar y mejorar códigos maliciosos, e incluso correos electrónicos para la suplantación de identidad o phishing. Y es que prácticamente cualquier usuario con unos recursos y conocimientos mínimos, e incluso nulos, puede hacer uso de ellas.
Se espera así la llegada y crecimiento de nuevos grupos de ciberdelincuentes de pequeño tamaño, así como un fuerte aumento en la cantidad y frecuencia de los ataques.
Es innegable que el avance de las inteligencias artificiales es imparable ¿Cómo se puede garantizar la ética y la transparencia en la implementación de modelos de inteligencia artificial en el software? ¿Cómo cree que reaccionarán los gobiernos nacionales o la propia Unión Europea?
En orden con lo que dicta la carta publicada en Future of Life Institute, actualmente se está llegando a un punto de desarrollo de unos sistemas cada vez más potentes que ni siquiera los propios creadores pueden llegar a controlar con total fiabilidad.
Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa. Esto incluye la creación de mecanismos de seguridad sólidos, establecer pautas éticas, promover la transparencia y la responsabilidad en el desarrollo de la IA, además de fomentar la innovación y la participación pública, y garantizar su accesibilidad.