¿CUMPLE
CHATGPT CON LA PROTECCIÓN DE DATOS? HAY MOTIVOS PARA LA INCERTIDUMBRE
El
primero en dar la voz de alarma sobre la posible falta de privacidad fue
Italia.
Con
la explosión de ChatGPT y otras herramientas de este tipo de IA “lo que está
pasando es que la gente está volcando muchísima información, no solo propia
sino de otros”, detalló un experto.
Para
que una compañía digital pueda operar en Europa debe tener una política de
privacidad transparente, con el consentimiento como eje central. ¿Cumple
OpenAI, propietaria de ChatGPT, con la normativa? ¿Saben los usuarios cómo se
utilizan sus datos? Expertos lo ponen en duda; hay motivos para la
incertidumbre.
En
pocos meses la inteligencia artificial ChatGPT, capaz de generar textos, imágenes
o música a partir de datos existentes, ha pasado de ser una herramienta
minoritaria, más cercana a un experimento de laboratorio, a un boom, y de ella
preocupa, precisamente, la rapidez de su desarrollo, la propiedad intelectual,
su utilización para desinformar, la ciberseguridad o su política de protección
de datos.
El
primero en dar la voz de alarma sobre la posible falta de privacidad fue
Italia. El pasado 31 de marzo el país anunció el bloqueo del uso
de ChatGPT por no respetar la ley de protección de datos de los
consumidores, y la apertura de una investigación a OpenAI, a la que además
solicitó una serie de medidas concretas.
El
asunto ya está en Europa; el Comité Europeo de Protección de Datos ha creado un
grupo de trabajo para fomentar la cooperación e intercambiar información sobre
las acciones de las autoridades de protección de datos de los distintos países
miembros, de Islandia, Liechtenstein y Noruega, que tienen asimismo dudas al
respecto.
Actuaciones
en España
Desde
España también se ha mostrado preocupación por un posible incumplimiento de la
normativa. La Agencia Española de Protección de Datos (Aepd) anunció el pasado
13 de abril que iniciaba de oficio actuaciones previas de investigación a la
empresa estadounidense.
La
medida tomada por la Aepd “entra dentro de lo normal, pero es algo
excepcional”, porque “no suele abrir investigaciones así”, señaló Sergio
de Juan-Creix, abogado de Croma Legal y profesor de la Universitat Oberta de
Catalunya (UOC), quien recordó que el Reglamento General de Protección de Datos
(RGPD) se aplica en toda la Unión Europea pero los estados siguen siendo
soberanos en la materia.
Lo
que está haciendo ahora la Aepd, explicó este abogado, es pedir
información a OpenAI para valorarla y establecer si el tratamiento de
datos de esta empresa es acorde con las normas europeas y españolas.
¿SE
TRANSFIEREN DATOS A ESTADOS UNIDOS?
Habría
que averiguar por ejemplo si OpenAI está transfiriendo datos de los
usuarios a Estados Unidos; “Europa considera que el envío de datos a ese país
no es seguro”, dijo, porque allí no hay una protección equivalente, “no se
cumplen los mínimos que exige la UE”.
Borja
Adsuara, experto en derecho digital y profesor de la Universidad Complutense de
Madrid, opina igual: “lo que ha dicho la Aepd es denos información porque es lo
que exige el reglamento europeo”.
Hay
que conocer qué datos recaba, qué hace con ellos, si se ceden a terceros o si
hay transferencia internacional.
Con
la explosión de ChatGPT y otras herramientas de este tipo de IA “lo
que está pasando es que la gente está volcando muchísima información, no solo
propia sino de otros”, detalló De Juan-Creix.
Adsuara puso
un ejemplo de su propia profesión: hay despachos de abogados que están
“jugueteando” con esta IA, hacen escritos y meten datos de sus clientes, pero
¿saben a dónde van esos datos y su uso?
“No
quiero decir con esto que OpenAI los recopile o use”, pero el
reglamento europeo contempla la obligación de informar.
Para
el profesor de la UOC, “al parecer OpenAI no está informando de la
base legal que aplica y sobre si envía datos a Estados Unidos. Al menos hay
incertidumbre en todo esto. Yo no digo que termine en sanción, pero se tiene
que investigar”.
El
reglamento europeo lo que tiene de particular es que aplica a cualquier entidad
que trate datos de ciudadanos europeos, da igual si está en Japón o Estados
Unidos, y obliga a las compañías a nombrar un representante en territorio
europeo. De no tenerlo, pueden recibir una fuerte sanción.
Adsuara
opinó que OpenAI terminará abriendo delegación en Europa, “ninguna
empresa va a querer renunciar al mercado europeo”, y tendrá
entonces “que pasar por el aro y cumplir el reglamento, que es claro”.
Desinformación
y propiedad intelectual
Ambos
coinciden en que más allá de esta materia preocupa la desinformación o
propiedad intelectual.
En
el primer caso la facilidad y “perfección” con la que se pueden crear noticias
falsas, ¿seremos capaces de contrastarlo todo?
Y
en el segundo, ¿a quién pertenece, por ejemplo, un cuadro “pintado” por esta
herramienta? ¿Es de ChatGPT, de OpenAI o del usuario que pide a
la IA que lo haga? Y como para ello esta inteligencia artificial se ha nutrido
de creaciones anteriores y esas pueden tener sus derechos de autor, ¿es legal?
Hay que regularlo.
Fuente: EFE
Comentarios
Publicar un comentario