El gobierno europeo no tiene del todo claro que ChatGPT y otras herramientas de inteligencia artificial cumplan con la legislación vigente, sobre todo en materia de protección de datos, y ha decidido dar el primer paso para crear unas normas comunes para este tipo de aplicaciones.
Esta semana, el Comité Europeo de Protección de Datos (CEPD), una organización formada por representantes de las distintas autoridades nacionales en esta materia, ha anunciado la creación de un grupo de trabajo que se encargará de evaluar los riesgos que plantean estas nuevas herramientas.
El grupo ha comenzado ya una ronda de consultas con varios expertos para tratar de definir las posibles acciones que se pueden tomar de forma conjunta entre los diferentes países y marcar unas directrices comunes de actuación.
Es una decisión que se ha tomado a petición de la Agencia Española de Protección de Datos,que a principios de semana solicitó al organismo que evaluase las posibles violaciones a la privacidad por parte de ChatGPT.
“La AEPD entiende que las operaciones globales de procesamiento que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo”, dijo un portavoz de la agencia en un comunicado enviado por correo electrónico.
España, en cualquier caso, no es el único país europeo preocupado por esta cuestión. Desde finales de marzo, el gobierno italiano ha bloqueado el acceso a ChatGPT en el país. Asegura que viola algunas de las normas de protección de datos presentes en Italia (y que son similares a las de otros países europeos). ChatGPT, por ejemplo, no cuenta con un filtro que evite el acceso de menores y no avisa a los usuarios de que durante el uso la herramienta recopila datos personales.
El homólogo francés de la AEPD, el CNIL, también está estudiando varias denuncias y quejas sobre el servicio, que ha crecido de forma espectacular en los últimos meses y que puede tener un impacto social profundo.
Varios expertos y académicos, de hecho, han pedido recientemente a las empresas tecnológicas que desarrollan estas herramientas (fundamentalmente OpenAI y Google), que paren el desarrollo de nuevos modelos de lenguaje y herramientas de inteligencia artificial generativas hasta que se pueda acordar un marco ético y legal que proteja a los usuarios.
Esgrimen varias razones para hacerlo. Estos modelos de lenguaje han sido entrenados, por ejemplo, con material protegido por derechos de autor o sin el permiso de los usuarios. Hay también dudas sobre el efecto que podrían tener en el mercado laboral o la difusión de noticias falsas y propaganda.