La Grada
  • Economía
  • Motor
  • Sociedad
  • La Grada
  • US
La Grada

No debes subir tus fotos a ChatGPT: estos son los riesgos de esta práctica tan común

por H.Crespo
7 de abril de 2025
en Sociedad
No debes subir tus fotos a ChatGPT: estos son los riesgos de esta práctica tan común

No debes subir tus fotos a ChatGPT: estos son los riesgos de esta práctica tan común

Confirmado: la calle donde mejor se come de toda Europa está en España… y su historia te va a sorprender

Es oficial: Barcelona permitirá la apertura de sus centros comerciales los domingos a partir de esta fecha

Nuevo viral de Mercadona: el último producto que está volando de las estanterías es este snack para perros

Hoy en día cada vez más gente usa ChatGPT para su trabajo o para el ocio, incluso. En muchos casos, ChatGPT ayuda con algunas tareas mecánicas y no tan mecánicas, ya que en algunas ocasiones nos brinda incluso ideas brillantes para desarrollar un proyecto, un curso o incluso una conferencia.

Sin embargo, existen peligros con ChatGPT a la hora de proteger la privacidad. Esto ha saltado a la luz después de que durante algunos días, redes sociales como Instagram o X se hayan llenado de imágenes tipo anime. Vamos a ver qué puede pasar con algunas imágenes usando ChatGPT.

El peligro de las imágenes con ChatGPT

El peligro de prestar las imágenes a ChatGPT puede hacer que ocurran determinadas cosas que pueden ser de todo menos seguras e interesantes para quienes las han metido en programas de IA. Algunas personas, entre ellas influencers o gente famosa ha caído en esta moda de usar imágenes para generar algunas que les hagan verse como personajes de anime a través del ChatGPT.

Sabemos que hoy en día el ChatGPT puede generar imágenes de muchos tipos, entre las que se encuentran estas. Puede generar desde fotografías que se crean para fines de humor y lúdicos, hasta otras que sirvan para fines profesionales. De hecho, en muchos casos incluso crea carteles o imágenes de diseño gráfico.

No obstante, hay que tener cuidado con los derechos, ya que una vez que estas se ceden, como ocurre con otras plataformas y sitios online, se pierden muchos de estos. Vamos a ver qué pasa en estos casos.

Identidad y protección de datos

Quien alerta sobre este tema en sus redes sociales es Eduard Blasi, un abogado especializado en protección de datos. Lo que subraya el experto es que cuando cedemos fotos como de las que estamos hablando «le estamos facilitando a la plataforma una mayor capacidad de aprovechamiento. OpenAI puede entrenar su algoritmo sin tantas complicaciones«.

Pero este no es el único problema, ya que los mayores peligros que se podrían dar con ChatGPT es que, según él, estas imágenes se pueden llegar a utilizar por parte de estos sistemas de IA para suplantar identidades. 

Tal y como explica detalladamente “no es solo que cedas una imagen para un resultado artístico, es que estás entregando información valiosa que puede ser usada para entrenar algoritmos de inteligencia artificial, reconocimiento facial o, incluso, para suplantaciones de identidad en el futuro”.

El peligro de aportar estas imágenes

Los avisos que acabamos de ver por parte de este experto y para con el hecho de ceder imágenes personales a ChatGPT, aunque sea para que este genere este tipo de contenidos, deberían ser tenidos en cuenta. Sobre todo porque en algunos casos estas pueden usarse incluso para crear avatares falsos, ‘deepfakes‘. Pero es que además, esto podría ir más allá y estas imágenes podrían ser integradas en bases de datos para sistemas de vigilancia o identificación.

En estos casos, no habría consentimiento directo de la persona titular. No obstante, de lo que trata de alertar este experto es de que este tipo de prácticas suelen estar brevemente descritas en los términos y condiciones de uso. Es por eso que se recomienda que estos se lean antes de ceder imágenes siempre y cuando se quiera estar protegido/a. 

Una buena costumbre que puede ahorrar algunos problemas en el futuro. Y es que, hay que tener en cuenta que en muchos casos dejamos pasar la lectura de la letra pequeña. Lo hacemos porque tenemos poco tiempo o porque nos parece una tarea demasiado ardua y quizás no muy importante. Sin embargo, hoy en día con sistemas de IA como ChatGPT podríamos estar cediendo nuestros datos para fines con los que no estamos nada de acuerdo.

  • Aviso Legal
  • Política de Privacidad y Cookies

© 2025 - La Grada

No hay resultados
Todos los resultados
  • Economía
  • Motor
  • Sociedad
  • La Grada
  • US

© 2025 - La Grada